Gcore https://gcore.com/de/blog/feed/ Official Gcore CDN and Cloud Blog Mon, 10 Feb 2025 20:16:16 +0000 de hourly 1 https://wordpress.org/?v=6.7.2 Ein globaler KI-Spickzettel: KI-Vorschriften der wichtigsten Regionen im Vergleich https://gcore.com/de/blog/ai-regulations-2024-global-cheat-sheet/ Wed, 22 Jan 2025 07:00:00 +0000 https://gcore.com/blog/ai-regulations-2024-global-cheat-sheet/ KI-Entwicklungen erobern die Welt im Sturm. Unternehmen sollten sich aber bewusst sein, dass neue Chancen auch neue Herausforderungen mit sich bringen. Dem Impuls, die Technologie zu nutzen, müssen verantwortungsvolle Regel für deren Einsatz vorausgehen. Nur so ist sichergestellt, dass durch KI weder Unternehmen noch ihre Kunden Risiken ausgesetzt sind. Um diesem Anspruch gerecht zu werden, entwickeln Regierungen weltweit Gesetze zur Regulierung von KI und Datennutzung.

Sich in einem immer komplexeren Netz von internationalen Vorschriften zurechtzufinden, kann überfordernd sein. Deshalb werden wir in diesem Artikel die Gesetzgebung einiger führender KI-Hubs auf allen Kontinenten aufschlüsseln und Ihnen genau die Informationen zur Verfügung stellen, die Ihr Unternehmen benötigt, um KI optimal zu nutzen – sicher, legal und ethisch vertretbar.

Falls Sie unsere früheren Blogs verpasst haben, in denen wir die KI-Vorschriften nach Regionen aufgeschlüsselt haben, lesen Sie sie hier: Nordamerika, Lateinamerika, Europa, APAC, Naher Osten.

Um die Zusammenfassung zu lesen, gehen Sie bitte zur Übersichtstabelle.

Auch wenn die Vorschriften je nach Standort variieren, haben sich 2024 weltweit mehrere übergreifende Trends herauskristallisiert. Dazu zählen eine Fokussierung auf Datenlokalisierung, risikoabhängige Regulierung und eine Priorisierung des Datenschutzes. Sie sind zu allgemein anerkannten Leitlinien geworden. Das gemeinsame Ziel aller Länder ist es, Innovationen zu fördern und gleichzeitig die Verbraucher zu schützen – auch wenn die einzelnen Regionen diese Ziele auf unterschiedliche Weise zu erreichen versuchen.

Viele Länder folgen dem Beispiel der EU, deren KI-Gesetz ein mehrstufiges Regulierungsmodell je nach potenziellem Risikograd vorsieht. Bei diesem System gelten für jede Risikostufe unterschiedliche Anforderungen: Für Hochrisikoanwendungen, die entweder die öffentliche Sicherheit oder Bürgerrechte betreffen, gilt eine andere Sicherheitsstufe als für allgemeine KI-Anwendungen, bei denen die Risiken weniger hoch eingestuft werden.

Europa: strukturiert und stringent

Europa hat einige der strengsten KI-Vorschriften der Welt mit Schwerpunkt Datenschutz gemäß der DSGVO sowie dem neuen risikoabhängigen KI-Gesetz. Dieser Ansatz beruht vor allem darauf, dass die EU den Schwerpunkt auf Verbraucherrechte legt und dafür sorgt, dass die Sicherheit der Nutzerdaten durch die digitale Technologie gewährleistet wird. Das vorgeschlagene KI-Gesetz der EU, über das noch verhandelt wird und das bis 2025 verabschiedet sein soll, stuft KI-Anwendungen nach den Risikoklassen „inakzeptables Risiko“, „hohes Risiko“, „begrenztes Risiko“ und „niedriges Risiko“ ein. Risikoreiche KI-Tools, wie sie bei biometrischer Identifizierung oder Finanzentscheidungen eingesetzt werden, müssen strenge Standards in Bezug auf Datenverwaltung, Transparenz und menschliche Aufsicht erfüllen.

Einige EU-Länder haben zusätzliche Standards zum EU-Rahmen eingeführt, insbesondere für mehr Datenschutz und Kontrolle. Der deutsche DSK-Leitfaden zum Beispiel konzentriert sich auf die Rechenschaftspflicht großer Sprachmodelle (LLM) und fordert mehr Transparenz, menschliche Kontrolle und die Zustimmung zur Datennutzung.

Unternehmen, die KI in Europa einsetzen wollen, müssen sowohl die einheitlichen Anforderungen des KI-Gesetzes als auch die mitgliedsspezifischen Vorschriften berücksichtigen, die eine differenzierte und strenge Compliance-Landschaft schaffen.

Nordamerika: neue Vorschriften

Die Vorschriften für künstliche Intelligenz in Nordamerika sind weit weniger einheitlich als die in Europa. Die USA und Kanada sind noch dabei, ihre jeweiligen KI-Rahmenregelungen auszuarbeiten, wobei der derzeitige Ansatz der USA weniger streng und zugleich innovationsfreundlicher ist, während Kanada eine zentralisierte Steuerung bevorzugt.

Die Vereinigten Staaten arbeiten mit einem Hybridmodell aus bundesstaatlichen Richtlinien, wie dem Blueprint for an AI Bill of Rights, sowie einzelstaatlichen Gesetzen, wie dem California Consumer Privacy Act (CCPA) und dem Virginia Consumer Data Protection Act (VCDPA), die dazu dienen, einige der strengeren Datenschutzvorschriften durchzusetzen. Die zweistufige Vorgehensweise ähnelt dem in der EU, wo es sowohl Vorschriften auf EU-Ebene als auch auf Länderebene gibt.

Der grundsätzlich liberale Ansatz der USA entspricht dem dortigen Verständnis der freien Marktwirtschaft und räumt Innovation und Wachstum den Vorrang vor strengen Sicherheitsmaßnahmen ein. Doch nicht alle Staaten machen sich einen solch freizügigen Umgang zu eigen. Die Divergenz zwischen strengen einzelstaatlichen Gesetzen und eher lockeren Bundesrichtlinien kann zu einer fragmentierten Regulierungslandschaft führen, die für Unternehmen nur sehr schwer zu durchschauen ist.

Asien-Pazifik (APAC): divergierende Strategien mit Fokus auf Innovation

Die APAC-Region entwickelt sich schnell zu einem globalen Spitzenreiter in Sachen KI-Innovation, deren wichtigsten Märkte das technologische Wachstum in verschiedenen Sektoren maßgeblich vorantreiben. Die Regierungen in der Region haben darauf mit der Schaffung von Rahmenbedingungen reagiert, die den verantwortungsvollen Einsatz von KI und die Datensouveränität in den Vordergrund stellen. Indiens künftiges Gesetz zum Schutz digitaler personenbezogener Daten (Digital Personal Data Protection Bill, DPDPB), Singapurs Modellrahmen für KI-Governance (Model AI Governance Framework) und Südkoreas Gesetz zur Förderung der KI-Industrie (AI Industry Promotion Act) werfen ein Schlaglicht auf die regulatorische Vielfalt in der Region und unterstreichen gleichzeitig die gemeinsame Forderung nach Transparenz und Datenlokalisierung.

Es gibt keinen einheitlichen Ansatz für die Regulierung von KI in der APAC-Region. Länder wie China setzen beispielsweise einige der weltweit strengsten Gesetze zur Datenlokalisierung durch, während Japan „Soft-Law“-Prinzipien eingeführt hat und bald verbindliche Vorschriften erwartet. Diese unterschiedlichen Ansätze spiegeln die spezifische Balance zwischen Innovation und Verantwortung in jedem Land wider.

Lateinamerika: neue Normen für den Datenschutz

Die lateinamerikanische KI-Regulierungslandschaft befindet sich noch in der Entstehungsphase, wobei ein gemeinsamer Schwerpunkt auf dem Datenschutz liegt. Brasilien, das in der Region führend bei der digitalen Regulierung ist, erließ das Allgemeine Datenschutzgesetz (General Data Protection Law, LGPD) ein, das in seinem datenschutzfreundlichen Ansatz – ähnlich wie das argentinische Datenschutzgesetz– eng an die DSGVO angelehnt ist. Mexiko prüft ebenfalls eine KI-Gesetzgebung und hat bereits unverbindliche Leitlinien herausgegeben, in denen ethische Grundsätze und Menschenrechte betont werden.

Während sich die regionale KI-Politik noch in der Entwicklung befindet, tendieren andere lateinamerikanische Länder wie Chile, Kolumbien, Peru und Uruguay zu Rahmenwerken, die Transparenz, die Zustimmung der Nutzer und menschliche Kontrolle in den Vordergrund stellen. Mit der zunehmenden Verbreitung von KI werden die lateinamerikanischen Länder wahrscheinlich dem Beispiel der EU folgen und risikobasierte Vorschriften einführen, die sich mit Hochrisikoanwendungen, Datenverarbeitungsstandards und Datenschutzrechten befassen.

Naher Osten: Zentren für KI-Innovationen

Die Länder des Nahen Ostens investieren erheblich in KI, um das Wirtschaftswachstum anzukurbeln, weshalb auch die Politik besonders innovationsfreundlich ist. In vielen Fällen liegt der Schwerpunkt der Politik sowohl auf der Entwicklung technologischer Spitzenleistungen und der freiwilligen Einhaltung durch die Unternehmen als auch auf strengen gesetzlichen Anforderungen. Dies macht die Region zudem besonders komplex für Unternehmen, die sich bemühen, sich den Bedingungen jedes Landes anzupassen.

Die VAE wollen sich durch Initiativen wie die UAE National AI Strategy 2031 als weltweit führend im KI-Sektor positionieren. Die Strategie umfasst ethische Leitlinien, legt aber auch Wert auf eine innovationsfreundliche Politik, die Investitionen anzieht. Saudi-Arabien geht einen ähnlichen Weg. Vorschriften wie die Standards für Datenmanagement und den Schutz personenbezogener Daten (Data Management and Personal Data Protection Standards)konzentrieren sich auf Transparenz und Datenlokalisierung, um die Daten der Bürger zu schützen und gleichzeitig die rasche Entwicklung von KI in allen Bereichen zu fördern. Israels KI-Regulierung stützt sich auf flexible, in den Datenschutzgesetzen verankerte Richtlinien, einschließlich des Datenschutzgesetzes (Privacy Protection Law, PPL), das 2024 geändert wurde, um es an die DSGVO der EU anzupassen.

Übersichtstabelle mit Zusammenfassung

RegionLand/RegionVorschrift/RichtlinieSchwerpunktAuswirkungen auf die Wirtschaft
EuropaEUKI-Gesetz (geplant)Risikoabhängige KI-Klassifizierung; hohe Standards bei Datenverwaltung, Transparenz und menschlicher AufsichtHöhere Aufwände bei Compliance, mögliche Verzögerungen bei der Einführung von KI aufgrund strikter Auflagen
 EUDatenschutzgrundverordnung (DSGVO)Datenschutz, Zustimmung zur Datenverarbeitung, Beschränkungen für grenzüberschreitende DatenübertragungenErhöhte Betriebskosten für die Einhaltung der Vorschriften, Herausforderungen für die globale Datenübertragung und -speicherung
NordamerikaUSAEntwurf für ein KI-GrundgesetzKI-Sicherheit, Datenschutz, Fairness; unverbindliche staatliche LeitlinienFlexibilität ermöglicht Innovation, aber Gesetze auf Länderebene erhöhen das Risiko der Fragmentierung von Vorschriften
 USA (Bundesstaaten)California Consumer Privacy Act (CCPA) & Virginia Consumer Data Protection Act (VCDPA)Datenschutz, Verbraucherdatenschutz, strenge Einhaltung der Vorschriften zur DatenverarbeitungErhöhte gesetzliche Anforderungen für Unternehmen, die in strengen Bundesstaaten tätig sind
 KanadaArtificial Intelligence and Data Act (AIDA) (geplant)Nationale KI-Ethik und Datenschutz; Transparenz, Verantwortlichkeit für die Nutzung personenbezogener DatenErfordert Investitionen in KI-Auditsysteme und Dokumentation
 KanadaPersonal Information Protection and Electronic Documents Act (PIPEDA)Datentransparenz, Zustimmung der Nutzer, Verantwortlichkeit bei der Verwendung personenbezogener DatenBietet Organisationen die Möglichkeit, durch Transparenz das Vertrauen ihrer Kunden zu gewinnen
APAC (Asien-Pazifik)IndienDigital Personal Data Protection Bill (DPDPB)Datenschutz, Einwilligung der Nutzer, Datensouveränität, LokalisierungBetriebskosten für Systeme zur Datenlokalisierung, limitiert grenzüberschreitenden Datenfluss
 SingapurModell eines Rahmenwerks für KI-GovernanceVerantwortungsvolle KI-Nutzung, Data Governance, TransparenzUnternehmen, die sich frühzeitig an den Anforderungen orientieren, sichern sich einen Wettbewerbsvorteil
 SüdkoreaAI Industry Promotion ActUnterstützung der KI-Industrie, Transparenz, DatenlokalisierungFördert KI-Innovationen, bringt aber Lokalisierungskosten für internationale Unternehmen mit sich
 ChinaGesetze zur DatenlokalisierungStrenge Datenlokalisierung, Hoheit über die DatenverarbeitungDie Datenlokalisierung ist mit Kosten für die Einhaltung der Vorschriften verbunden und kann für ausländische Unternehmen, die in China tätig sind, Hindernisse darstellen
 JapanGesetz zum Schutz der Privatsphäre (Soft-Law-Grundsätze)Schutz der Privatsphäre, künftige verbindliche Vorschriften erwartetKurzfristige geschäftliche Flexibilität mit dem Potenzial für zukünftige Kosten für Compliance, wenn verbindliche Vorschriften eingeführt werden
LateinamerikaBrasilienAllgemeines Datenschutzgesetz (General Data Protection Law, LGPD)Datenschutz, Einwilligung in die Datenverarbeitung, Transparenz bei der DatennutzungDie Angleichung an die DSGVO kann europäischen Unternehmen den Einstieg erleichtern, birgt aber auch das Potenzial, die Kosten für die Einhaltung der Vorschriften zu erhöhen
 MexikoEthische Grundsätze der KI (nicht bindend)Ethische Grundsätze, Menschenrechte, Leitlinien für den verantwortungsvollen Umgang mit KIMinimale Compliance-Anforderungen, ein „Soft-Law“-Ansatz ermöglicht Unternehmen Flexibilität
 ArgentinienGesetz zum Schutz personenbezogener DatenDSGVO-konform; Einwilligung, Datenschutz, Nutzerrechte 
 ChileNational Intelligence PolicyMenschenrechte, Transparenz, Vermeidung von Bias beim Einsatz von KIGeringe Compliance-Kosten, aber Fokus auf ethische KI-Praktiken erforderlich
 KolumbienNational Policy for Digital TransformationEthische KI-Nutzung, verantwortungsvolle Entwicklung, DatensouveränitätFokus auf ethische Praktiken könnte Wettbewerbsvorteile bei öffentlichen Ausschreibungen schaffen
 PeruNationale Strategie für KIKI-Infrastruktur, Ausbildung von Fachkräften, ethische DatenpraktikenSchafft Möglichkeiten für Unternehmen, die sich mit KI-Schulungen und -Infrastrukturen befassen, erfordert jedoch ethische Orientierung
 UruguayAktualisierte KI-Strategie (in Arbeit)Governance in der öffentlichen Verwaltung, KI-InnovationErleichterung des Marktzugangs für innovationsorientierte Unternehmen trotz anspruchsvoller Anpassung an Governance-Rahmenbedingungen
Naher OstenVAELeitfaden für KI-Ethik und für die Einführung von KIEthische Standards, Datenschutz, verantwortungsvoller Einsatz von KIUnterstützt ethische KI-Entwicklung mit minimaler regulatorischer Belastung
 VAEDubai International Financial Center (DIFC) DatenschutzbestimmungenDatennutzung in KI-Anwendungen, Datenschutzrechte, DatenlokalisierungKann die Datenübertragung erschweren, positioniert Dubai aber als führendes KI-Land
 VAEKI-ChartaGovernance, Transparenz und Datenschutz in der KI-PraxisFördert die internationale Zusammenarbeit und betont den verantwortungsvollen Einsatz von KI
 Saudi-ArabienStandards für Datenmanagement und Schutz personenbezogener DatenTransparenz, Datenlokalisierung, minimale Einschränkungen für KI-InnovationenUnterstützt Innovation, erhöht aber Kosten für lokalisierte Datenverarbeitung
 Saudi-ArabienEthische Grundsätze der KI und Richtlinien für generative KIEthische Standards, verantwortungsvolle KI-Nutzung, Leitlinien für die IndustrieNiedrige Compliance-Kosten fördern Innovation
 IsraelPrivacy Protection Law (PPL) und KI-PolitikDatenschutz, DSGVO-konforme Änderungen (KI-Politik), ethische und flexible KI-RegulierungFlexibilität für ethisch handelnde Unternehmen, Angleichung an DSGVO kann europäische Zusammenarbeit erleichtern

Compliance-Management angesichts sich überschneidender Vorschriften

Compliance-Management stellt schon immer eine Herausforderung dar. Angesichts der vielfältigen und oft widersprüchlichen Anforderungen, die weltweit gelten, ist die Einhaltung von Vorschriften heute jedoch schwieriger denn je. International tätige Unternehmen müssen eine Balance zwischen der Einhaltung strenger Vorschriften wie der EU-Datenschutzgrundverordnung (DSGVO) oder den chinesischen Gesetzen zur Datenlokalisierung und der Einhaltung flexiblerer oder innovationsorientierter Rahmenwerke in Ländern wie Singapur und Saudi-Arabien finden. Unternehmen sind gefordert, ihre Abläufe an die unterschiedlichen Standards für Datenschutz, Transparenz und Governance anzupassen, was zu höheren Kosten und betrieblicher Ineffizienz führen kann. Diese Fragmentierung der Vorschriften zwingt Unternehmen oft zu erheblichen Investitionen in juristische Expertise, in Compliance-Infrastruktur und in maßgeschneiderte operative Strategien, um widersprüchliche Anforderungen zu erfüllen.

Vereinfachung globaler KI-Compliance mit Gcore

Für international tätige Unternehmen stellt die Einhaltung unterschiedlicher KI-Vorschriften eine große Hürde dar. State-of-the-Art-Technologien wie Sovereign Cloud und Edge Computing eröffnen jedoch neue Möglichkeiten, diese Standards zu erfüllen. Sovereign Clouds ermöglichen die Datenspeicherung und -verarbeitung innerhalb bestimmter Regionen, was es den Unternehmen erleichtert, die Gesetze zur Datenlokalisierung einzuhalten und gleichzeitig von der Skalierbarkeit der Cloud zu profitieren. Anbieter wie Gcore bieten Lösungen mit einem weltweiten Netz von Datenzentren an, die globalen Unternehmen einen nahtlosen Betrieb über Grenzen hinweg ermöglichen.

Gcore ist führend im Edge Computing, das als Ergänzung zur Lokalisierung die Datenverarbeitung näher am Entstehungsort der Daten ermöglicht. Dies verringert den Bedarf an grenzüberschreitenden Datenübertragungen und verbessert sowohl Latenzzeit als auch Netzwerkeffizienz. Dies ist besonders vorteilhaft für KI-Anwendungen in Bereichen wie autonomes Fahren und Telemedizin, in denen sowohl Geschwindigkeit als auch Konformität entscheidend sind. Darüber hinaus vereinfacht Gcore die Einhaltung von Vorschriften wie der EU-DSGVO und dem KI-Gesetz, indem es dazu beiträgt, dass sensible Daten sicher und innerhalb der regionalen Grenzen bleiben.

Entdecken Sie Gcore Inference at the Edge für die lückenlose Einhaltung von gesetzlichen Vorschriften

]]>
Absicherung von Webanwendungen und APIs am Edge: die Leistungsfähigkeit von Edge WAAP https://gcore.com/de/blog/waap-at-the-edge/ Thu, 14 Nov 2024 07:00:00 +0000 https://gcore.com/blog/waap-at-the-edge/ Da Anwendungsarchitekturen immer verteilter werden, erfordert die Sicherung von Webanwendungen und APIs einen proaktiven, anpassungsfähigen Ansatz, der über herkömmliche Web Application Firewalls (WAFs) hinausgeht. Lösungen zum Schutz von Webanwendungen und Anwendungsprogrammierschnittstellen (WAAP) verbessern die Sicherheit, indem sie die Schutzmaßnahmen näher an die Endbenutzer und potenzielle Bedrohungen heranbringen. Diese strategische Positionierung verringert die Latenzzeit, was zu schnelleren Reaktionszeiten und einem nahtloseren Benutzererlebnis führt. Edge-basiertes WAAP senkt das Risiko von Ausfallzeiten und schützt wichtige Ressourcen, indem es Bedrohungen wie DDoS-Angriffe, Bot-Traffic und API-Missbrauch abfängt, bevor sie die Kerninfrastruktur erreichen.

Edge-basiertes WAAP bietet dynamische Skalierbarkeit und erhöhte Geschwindigkeit und bewältigt effizient große Datenmengen und unerwartete Nachfragespitzen. Verteilt auf zahlreiche globale Präsenzpunkte bietet sie robuste, flexible Sicherheit, die sich in Echtzeit an Bedrohungen und Angriffe anpasst und damit perfekt für den Schutz von Anwendungen in komplexen Multi-Cloud-Umgebungen geeignet ist.

Warum WAAP am Edge?

Bei zentralisierten WAAP-Lösungen steht in der Regel eine einzige Sicherheitsanwendung oder Software-Instanz zwischen dem Internet und der Anwendung. Die zentralisierte WAAP ist zwar in bestimmten Szenarien wirksam, hat aber ihre Grenzen, insbesondere wenn es um globale Anwendungen und verteilte Infrastrukturen geht. Zu den Nachteilen gehören:

  • Latenz: Datenverkehr, der über einen zentralen Punkt geleitet wird, kann zu Latenz führen, was die Anwendungsleistung beeinträchtigt.
  • Ein einziger Ausfallpunkt: Die Kompromittierung der zentralen Sicherheitsanwendung kann die gesamte Anwendung stark beeinträchtigen.
  • Skalierbarkeit: Die Skalierung von zentralisierten Lösungen zur Bewältigung des zunehmenden Datenverkehrs und der sich entwickelnden Bedrohungslandschaft kann eine Herausforderung darstellen.

Edge-WAAP hingegen verteilt Sicherheitsfunktionen auf mehrere Punkte im Netzwerk, häufig näher am Edge. Dieser Ansatz bietet mehrere Vorteile: geringere Latenzzeiten, bessere Leistung, höhere Sicherheit und größere Flexibilität. Betrachten wir sie der Reihe nach.

Geringere Latenzzeit

Durch die Nutzung der Leistungsfähigkeit von CDN, um die Sicherheit in die Nähe des Endnutzers zu bringen, reduziert Edge WAAP die Latenzzeit erheblich, da der Datenverkehr näher an der Quelle verarbeitet wird. Die Latenzzeit steigt mit zunehmender physischer Entfernung zwischen Benutzern und Rechenzentren, so dass die Verringerung dieser Entfernung der Schlüssel zur Verbesserung der Reaktionszeiten ist. Dank des umfangreichen PoP-Netzwerks von Gcore auf der ganzen Welt werden Daten stets in der Nähe der Endnutzer verarbeitet. Dies reduziert die Datenübertragungsdistanz und ermöglicht eine schnellere Reaktion bei der Abwehr von Angriffen. Bei herkömmlichen Systemen bedeutet die Zentralisierung der Sicherheitsfunktionen, dass alle Anfragen (einschließlich potenziell böswilliger Anfragen) über eine einzige Stelle laufen, was zu Engpässen und einer Verlangsamung des Dienstes führen kann. Edge WAAP vermeidet dieses Problem, indem es die Sicherheitsfunktionen näher am Ursprung der Anfrage bearbeitet.

Dies führt zu einer reibungsloseren und schnelleren Interaktion mit den Kunden, selbst bei Spitzenbelastungen. So könnte beispielsweise eine globale E-Commerce-Plattform Edge WAAP nutzen, um ein nahtloses Einkaufserlebnis in verschiedenen Regionen mit minimalen Verzögerungen zu ermöglichen. Durch niedrige Latenzzeiten verbessert Edge WAAP die Gesamtleistung der Anwendung und bietet die nötige Skalierbarkeit, um schwankende Verkehrsanforderungen zu bewältigen. Diese Struktur ermöglicht es Unternehmen, reaktionsschnelle und zuverlässige Dienste aufrechtzuerhalten, während sie wachsen, und unterstützt sowohl aktuelle als auch zukünftige Skalierungsanforderungen.

Verbesserte Sicherheit

Die Kombination aus geringer Latenzzeit und globaler Netzverteilung macht Edge WAAP sicherer als Standard-WAAP-Lösungen. Indem der Datenverkehr näher an seiner Quelle verarbeitet wird, kann Edge-WAAP Bedrohungen in Echtzeit erkennen und abwehren, wodurch die Verzögerung zwischen der Identifikation böswilliger Aktivitäten und der Reaktion minimiert wird. Dieser Ansatz mit niedriger Latenz verringert das Zeitfenster für Angreifer und garantiert, dass Bedrohungen wie DDoS-Angriffe, Bot-Aktivitäten und API-Missbrauch neutralisiert werden, bevor sie die Kerninfrastruktur erreichen.

Darüber hinaus nutzt Edge WAAP ein global verteiltes Netzwerk, um verdächtige Datenverkehrsmuster über Regionen hinweg zu überwachen, was die Transparenz erhöht und die Anwendung von Sicherheitsmaßnahmen auf der Grundlage des geografischen Ursprungs von Bedrohungen ermöglicht. Dieser Ansatz kommt vor allem Unternehmen zugute, die mit sensiblen Daten arbeiten oder Compliance-Anforderungen in mehreren Regionen erfüllen müssen. Durch die Kombination aus geringer Latenzzeit und umfassender, globaler Bedrohungsüberwachung bietet Edge WAAP proaktiven, anpassungsfähigen Schutz, der schnell auf neue Bedrohungen reagieren kann.

Größere Flexibilität

Edge WAAP ermöglicht Unternehmen die Anpassung an sich entwickelnde Netzwerktopologien und Anwendungsarchitekturen. Durch die Bereitstellung von WAAP am Edge können Sicherheitsfunktionen verteilt und an ein sich änderndes Netzwerkumfeld angepasst werden, sei es aufgrund von Wachstum, veränderten Datenverkehrsströmen oder neuen Anforderungen an die Bereitstellung. Dank dieser Flexibilität kann WAAP eine Reihe von Architekturen unterstützen, von Multi-Cloud- und Hybrid-Umgebungen bis hin zu komplexeren, regionsspezifischen Konfigurationen.

Der Edge-basierte Ansatz von Gcore lässt sich nahtlos in Multi-Cloud- und Hybrid-Umgebungen integrieren und erleichtert Unternehmen die Skalierung und Anpassung von Sicherheitskonfigurationen, wenn sie wachsen. Diese Flexibilität ist besonders wertvoll für Unternehmen, die in neue Regionen expandieren oder neue Technologien einführen, da Edge WAAP sich an ihre individuellen Infrastrukturanforderungen anpassen kann.

Garantierte Sicherheit und Leistung mit Edge-basiertem WAAP

Edge-basiertes WAAP ist eine leistungsstarke Lösung zur Sicherung moderner Anwendungen und APIs. Gcore WAAP bringt die Sicherheit näher an die Kunden heran und sorgt so für einen schnelleren und effizienteren Schutz dank unseres riesigen globalen Netzwerks von mehr als 180 Präsenzpunkten (PoPs) in mehr als 95 Ländern .

Gcore WAAP arbeitet am Edge, um umfassenden Schutz vor DDoS-Angriffen, böswilligen Bots und API-Schwachstellen zu bieten. Außerdem lässt sie sich leicht skalieren, um hohe Datenverkehrsanforderungen in verteilten Multi-Cloud-Systemen zu bewältigen. Erfahren Sie, wie Gcore WAAP weltweit unübertroffene Geschwindigkeit bietet und Ihren Anwendungen robuste Sicherheit in einer Umgebung mit geringer Latenz ermöglicht.

Erfahren Sie mehr über Gcore WAAP

]]>
Cyber Monday steht vor der Tür. Das gilt auch für die Hacker https://gcore.com/de/blog/cyber-monday-hackers-are-coming/ Wed, 13 Nov 2024 07:00:00 +0000 https://gcore.com/blog/cyber-monday-hackers-are-coming/ Black Friday und Cyber Monday (BFCM) sind zwei der größten Online-Einkaufstage des Jahres. Im Jahr 2023 erreichten die Umsätze im E-Commerce in der Weihnachtszeit allein in den USA mehr als 12 Milliarden Dollar und für dieses Jahr wird ein weiterer Anstieg erwartet. Da das Online-Shopping in den letzten zehn Jahren immer beliebter geworden ist, hat sich die Begeisterung für BFCM auch über die Landesgrenzen hinaus verbreitet und ist heute eine der geschäftigsten Zeiten für Einzelhändler weltweit.

Dieser Umsatzanstieg ist zwar eine gute Nachricht für die Unternehmen, doch zieht der Hype auch Cyberkriminelle an, die sich die verstärkte Online-Aktivität zunutze machen wollen. Hier erfahren Sie, warum Hacker BFCM ausnutzen wollen, wie sie dies tun und wie sich Unternehmen vor Hacks in der Weihnachtszeit schützen können.

Kenne deinen Feind: Um was geht es für die Hacker?

Es gibt mehrere Gründe, warum Cyberkriminelle es auf E-Commerce-Websites abgesehen haben, insbesondere während der geschäftigen Einkaufszeit zum Jahresende.

  • Gestohlene Waren: Der persönliche Gewinn ist oft ein Hauptmotiv. Hacker nutzen ihre technischen Fähigkeiten, um Schwachstellen auf E-Commerce-Websites oder Zahlungsplattformen auszunutzen, um Einzelhändler um ihre Waren zu betrügen, ohne sie zu bezahlen.
  • Angeberei: Hacker sind nicht nur durch finanzielle Belohnungen motiviert. Manche wollen auch im Internet mit dem Chaos prahlen, das sie verursacht haben, vor allem, wenn sie behaupten können, dass sie an den einkaufsreichsten Tagen des Jahres große Websites zum Stillstand gebracht haben.
  • Sabotage von Konkurrenten: Einige Hacker-Aktivitäten gehen auf organisierte Gruppen zurück, die sich einen Vorteil auf dem Markt verschaffen wollen, indem sie ihren Konkurrenten zu einem Zeitpunkt finanziellen Schaden zufügen, an dem sich dies am stärksten auf deren Gewinne und deren Ruf auswirkt.
  • Lösegeldforderungen: Inmitten des Trubels stehlen Hacker private und sensible Daten, um Unternehmen zu erpressen und Geld zu erpressen. Unternehmen könnten in Erwägung ziehen, Hacker zu bezahlen, um sie daran zu hindern, ein Datenleck aufzudecken.

Übliche Angriffsmethoden der Cyberkriminalität

Cyberkriminelle suchen zunehmend nach neuen Wegen, um E-Commerce-Websites anzugreifen. Dies sind nur einige Techniken, die Sie kennen sollten.

  • Automatisierte Scanner: Cyberkriminelle nutzen diese Tools, um Tausende von Websites zu scannen und nach Schwachstellen zu suchen, die sie ausnutzen können. Da der Scanvorgang nicht manuell überwacht werden muss, können die Kriminellen in kurzer Zeit maximalen Schaden anrichten.
  • Phishing-Angriffe: Hacker zielen auch direkt auf Kunden ab. Mithilfe von E-Mails, Pop-up-Fenstern und gefälschten Nachrichten verleiten die Kriminellen Menschen dazu, ihre Konto- und Kreditkartendaten weiterzugeben. Die Kriminellen nutzen diese Daten dann für ihre Einkäufe. Für das Unternehmen können dann Verluste entstehen, wenn es diese betrügerischen Transaktionen zurückerstatten muss.
  • Malware: Malware oder „schädliche Software“ kann ohne Wissen des Eigentümers direkt in ungeschützte E-Commerce-Websites eingeschleust werden. Diese Malware ermöglicht es Kriminellen, unbemerkt Geld, Anmeldeinformationen und andere Benutzerdaten zu stehlen.
  • DDoS-Angriffe: Skrupellose Kriminelle verwenden Hacking-Tools und Bots, um riesige Mengen an Traffic auf eine Website zu leiten. Diese Zunahme des Traffics hindert legitime Kunden daran, auf die Website zuzugreifen, und zwingt sie dazu, bei der Konkurrenz zu kaufen, was zu Umsatzeinbußen für die betroffenen Unternehmen führt.
  • Geschenkkarten-Knacken: Angreifer nutzen die Hochsaison für Geschenke aus, indem sie Millionen von Zahlenvariationen durch Geschenkkartenformulare laufen lassen. Auf diese Weise können sie Geschenkkartennummern mit positivem Kontostand ermitteln und sie verkaufen, bevor der rechtmäßige Karteninhaber die Möglichkeit hat, sie zu benutzen.
  • Kontoübernahmen: Betrüger können mithilfe automatisierter Bots die Anmeldedaten von Kundenkonten übernehmen, um andere böswillige Aktivitäten auszuführen, z. B. die Kontrolle über das Konto zu übernehmen, Datendiebstahl zu begehen und unbefugte Einkäufe zu tätigen.
  • Horten von Lagerbeständen: Feindliche Bots manipulieren das Inventar von Einzelhandels-Websites, indem sie eine Kauftransaktion starten und nicht abschließen. Da viele Online-Shops ihre Lagerbestände in Echtzeit aktualisieren und Artikel während des Transaktionsprozesses als nicht vorrätig kennzeichnen, können echte Kunden keine Artikel kaufen, die eigentlich zum Verkauf stehen, weil sie scheinbar nicht verfügbar sind.
  • Scalping-Angriffe: Cyberkriminelle setzen automatisierte Scalping-Bots ein, um begehrte, stark nachgefragte Produkte wie Konzertkarten, Designerkleidung oder beliebtes Spielzeug zu kaufen. Die Käufe werden dann zu überhöhten Preisen auf Websites Dritter oder auf dem Schwarzmarkt weiterverkauft, sodass sowohl die Unternehmen als auch die Kunden leer ausgehen.

So können sich Unternehmen schützen

Trotz der Tatsache, dass die Betrüger immer innovativer werden, ist die gute Nachricht, dass fast 99 % der Angriffe durch grundlegende Sicherheitsvorkehrungen verhindert werden können. Zunächst einmal sollten Unternehmen sicherstellen, dass ihr E-Commerce-System und ihre Plugins immer auf dem neuesten Stand sind und dass sie keine nicht vertrauenswürdige Open-Source-Software verwenden. Virtuelles Patching, das Schwachstellen beseitigt, indem es als virtueller Schutzschild fungiert und bösartigen Traffic filtert, kann dieses Problem lösen.

Es ist auch ratsam, keine sensiblen Kundendaten auf den Systemen Ihres Unternehmens zu speichern, die über das absolut Notwendige hinausgehen. Das Speichern von Kreditkartennummern und sensiblen Kundendaten ist streng geregelt und erfordert von Unternehmen die Einhaltung von Standards wie PCI DSS oder ISO 2700x. Selbst vorschriftsmäßig vorgehende Unternehmen sollten nur das speichern, was für die Aufrechterhaltung ihrer E-Commerce-Website zwingend erforderlich ist, um das Risiko im Falle eines Cyberangriffs zu minimieren.

Der Schutz Ihrer Website ist keine einmalige Aufgabe. Es ist wichtig, regelmäßig nach Schwachstellen im Code und in der Anwendungsschicht einer Website zu suchen. Schwachstellen-Scanner konzentrieren sich auf die Identifizierung und Auflistung von Schwachstellen auf Ihrer Website und dienen als erster Schritt zur Risikominderung.

Zu den Tools, mit denen Websites kontinuierlich vor bösartigem Datenverkehr geschützt werden können, gehören WAAP und DDoS-Schutz. Diese arbeiten im Hintergrund, um Ihre Infrastruktur vor häufigen Angriffen zu schützen, bevor sie geschehen, sodass Sie die Folgen nicht abmildern müssen. Wenn Sie diese Aufgaben an einen zuverlässigen Drittanbieter auslagern, können Sie sich entspannt zurücklehnen und wissen, dass Ihre Sicherheitslösung selbst die komplexesten und neuesten Bedrohungen abwehrt.

So kann Gcore helfen, Ihre Website abzusichern

Es ist noch Zeit, Sicherheitsmaßnahmen für Ihre Website zu implementieren, bevor die Saison der Weihnachtseinkäufe beginnt. Die bewährten Sicherheitslösungen von Gcore, WAAP und DDoS Protection, können zum Schutz Ihrer Website und Ihres E-Commerce-Frameworks beitragen.

Wenn Sie Ihre Sicherheitsprobleme im Urlaub mit uns besprechen möchten, nehmen Sie Kontakt mit uns auf. Einer unserer Experten kann Ihnen bei der Entscheidung helfen, was für Ihr Unternehmen das Richtige ist, damit Sie sich auf die Betreuung Ihrer Kunden konzentrieren können, anstatt sich gegen Betrüger zu wehren.

Kontaktieren Sie uns, um Ihre Anforderungen an die Cybersicherheit zu besprechen

]]>
Wie erstellt man mit Advanced Language Models intelligentere Chatbots? https://gcore.com/de/blog/building-smarter-chatbots/ Thu, 13 Jun 2024 07:00:00 +0000 https://gcore.com/blog/building-smarter-chatbots/ Dieser Artikel von Mikhail Khlystun, AI Technical Product Manager bei Gcore, erschien ursprünglich auf The New Stack.


Die Entwicklung von Chatbots schreitet schnell voran. Neue Tools und Frameworks machen es einfacher und effizienter, anspruchsvolle Systeme zu entwickeln. Die derzeitigen großen Sprachmodelle (LLMs) leiden jedoch unter Einschränkungen: Es fehlt ihnen an aktuellem Wissen und sie können nicht auf domänenspezifische Informationen zugreifen, wie z.B. auf den Inhalt der Wissensdatenbank eines Unternehmens. Retrieval-augmented generation (RAG) kann dieses Problem lösen, indem es Wissen findet, das über die Trainingsdaten des LLM hinausgeht, und diese Informationen dann an ein LLM weitergibt.

In diesem technischen Artikel erkläre ich, wie man LangChain Community, Mixtral 8-7B und ChromaDB nutzt, um einen fortschrittlichen Chatbot zu erstellen, der in der Lage ist, verschiedene Dateitypen zu verarbeiten, Informationen aus einer Vektordatenbank abzurufen, über eine semantische Suche zu recherchieren und mit den Benutzern über eine intuitive Schnittstelle zu interagieren.

Entwcklung von Chatbot-Technologien

Die Tools und Prozesse für die Chatbot-Entwicklung entwickeln sich sehr schnell weiter. Sie erweitern die Fähigkeiten von Chatbots und verändern die Art und Weise, wie sie mit Nutzern interagieren und Informationen verarbeiten. Ich habe fünf identifiziert, die ich für besonders wichtig halte, und werde sie in diesem Tutorial verwenden.

  • Übergang zu LangChain Community und Mixtral 8-7B: Der Wechsel von LangChain und Mistral zu ihren fortschrittlicheren Gegenstücken, LangChain Community und Mixtral 8-7B, markiert eine bedeutende Entwicklung in der Chatbot-Entwicklung. Diese Tools erweitern den Anwendungsbereich von Chatbots, indem sie die Verarbeitung von Dokumenten ermöglichen und das Verständnis natürlicher Sprache in verschiedenen Bereichen verbessern.
  • Übergang von Graphdatenbanken zu ChromaDB: ChromaDB unterstützt die Speicherung und Abfrage großer, hochdimensionaler Daten. Dies macht ChromaDB zu einer hervorragenden Wahl für die Verwaltung komplexer Datentypen und -strukturen in verschiedenen Anwendungen.
  • Verwendung der konversationellen Abrufkette: Während RAG die Chatbot-Antworten verbessert, indem es den Zugriff auf externe Daten über den LLM-Trainingsdatensatz hinaus ermöglicht, baut die Conversational Retrieval Chain darauf auf, indem sie während des Gesprächs dynamisch Informationen aus Vektordatenbanken abruft. Durch diese Umstellung werden die Vorteile von RAG beibehalten und gleichzeitig die Interaktivität und Relevanz von Chatbots verbessert, indem eine kontextspezifische Datenabfrage in Echtzeit über erweiterte Sprachmodelle integriert wird.
  • Erweiterte Dateihandhabung und -verarbeitung: Das neue Szenario erweitert die zu verarbeitenden Dateitypen, einschließlich PDF, M4A, CSV, Excel und EML, und führt erweiterte Verarbeitungstechniken ein. Dies beinhaltet die Verwendung von ChromaDB für die Speicherung und Abfrage extrahierter Informationen und die Integration von Spracherkennung für Audiodateien, wodurch die Fähigkeit des Chatbots zur Verarbeitung verschiedener Datenquellen erweitert wird.
  • Einsatz mit der Gradio-Schnittstelle: Gradio bietet eine interaktive und benutzerfreundliche Schnittstelle zum Testen und Bereitstellen von KI-Modellen, einschließlich Chatbots. Dies erleichtert den Nutzern die Interaktion mit dem System in Echtzeit.

In diesem Tutorial werden diese Werkzeuge praktisch angewendet. Doch zunächst eine Anmerkung zum RAG für die Neulinge

Das RAG verstehen

Die RAG spielt eine zentrale Rolle bei der Verbesserung der Funktionalität der LLM. RAGs erleichtern den LLMs den Zugang zu externen Daten und ermöglichen es ihnen, Antworten mit zusätzlichem Kontext zu generieren. Das Ergebnis ist eine App, die den Endnutzern ein hervorragendes LLM-Erlebnis der nächsten Generation bietet. Ihr LLM ist mit der RAG einfach hilfreicher und effektiver.

Die RAG arbeitet in einer Abfolge von vier wesentlichen Schritten:

  1. Laden kodierter Dokumente: Der Prozess beginnt mit dem Laden einer Vektordatenbank mit Dokumenten, die in ein maschinenlesbares Format kodiert wurden.
  2. Kodierung der Abfrage: Die Anfrage des Nutzers wird mit Hilfe eines Satztransformators in einen Vektor umgewandelt. Dieses vektorisierte Format der Abfrage macht sie mit den kodierten Dokumenten in der Datenbank kompatibel.
  3. Abruf des Kontexts: Die kodierte Abfrage wird verwendet, um den relevanten Kontext aus der Vektordatenbank abzurufen. Dieser Kontext enthält die Informationen, die erforderlich sind, um eine Antwort zu generieren, die der Anfrage des Benutzers gerecht wird.
  4. Aufforderung an den LLM: Der abgerufene Kontext und die Abfrage werden zur Aufforderung an den LLM verwendet. Das LLM erzeugt eine kontextgerechte und informationsreiche Antwort.

Nachweis der Auswirkungen der RAG

Um die Wirksamkeit von RAG bei der Verbesserung der Fähigkeiten des Chatbots zu veranschaulichen, habe ich Screenshots erstellt, in denen die Antworten des Modells mit und ohne Verwendung von RAG verglichen werden:

Ohne RAG

Dem Modell fehlt die Möglichkeit, auf aktuelle Preisinformationen zuzugreifen, da diese nicht Teil des Trainingsdatensatzes waren. Diese Einschränkung führt zu Antworten, die nicht die aktuellen Unternehmensdaten widerspiegeln.

Mit RAG

Nachdem die Seite https://gcore.com/de/pricing/cloud als PDF-Datei gespeichert und als zusätzlicher Inhalt für die RAG verwendet worden war, analysierte und nutzte das Modell die Datei effektiv und beantwortete Fragen zu aktuellen Preisen präzise. Dies zeigt die Fähigkeit von RAG, die Leistung des Chatbots durch die Integration von dynamischen, externen Informationen zu verbessern.

Systemanforderungen und Leistung

Um eine optimale Leistung unseres Chatbot-Systems sicherzustellen, habe ich das Setup auf einer virtuellen Maschine getestet, die mit 4 × GeForce GTX 1080 Ti GPUs ausgestattet war. Die durchschnittliche Auslastung dieser Ressourcen ist entscheidend für die Aufrechterhaltung der anspruchsvollen Prozesse des Chatbots.

Durch die Implementierung des Befehls export CUDA_VISIBLE_DEVICES=0 habe ich das System darauf beschränkt, nur eine GPU zu nutzen. Diese Anpassung veränderte die Auslastung der GPU-Ressourcen erheblich, da das Modell etwa 6 GB GPU-Speicher benötigte, um die Anforderungen effizient zu verarbeiten.

Wie man den Code ausführt

Mit diesem Einrichtungsprozess erhalten Sie alle erforderlichen Tools und Abhängigkeiten, die für eine effiziente Ausführung und Interaktion mit dem Chatbot erforderlich sind. Der benötigte Code ist auf GitHub verfügbar, daher habe ich es vorgezogen, ihn nicht in seiner Gesamtheit an dieser Stelle zu schreiben. Ich habe das Modell mit Ubuntu 22.04 ausgeführt, aber es funktioniert mit jedem aktuellen Linux Betriebssystem.

Erstellen einer virtuellen Umgebung

Initialisieren Sie eine neue virtuelle Python-Umgebung, um Abhängigkeiten zu verwalten:

python3 -m venv chatbot-env

Aktivieren Sie die virtuelle Umgebung

Aktivieren Sie die erstellte Umgebung, um sie für die folgenden Schritte zu verwenden:

source chatbot-env/bin/activate

Klonen des Repositorys

Laden Sie den Projektcode von unserem GitHub-Repository herunter:

git clone https://github.com/G-Core/ai-code-examples.git

Abhängigkeiten installieren:

Installieren Sie alle erforderlichen Bibliotheken aus der mitgelieferten Anforderungsdatei:

pip install -r requirements.txt

Führen Sie das Inferenzskript aus:

Starten Sie die Chatbot-Anwendung mit Python:

python chat_bot.py

Zugriff auf den Chatbot

Lokale Maschine

Wenn Sie den Chatbot auf Ihrem lokalen Rechner ausführen, öffnen Sie einen Webbrowser und navigieren Sie zur URL des lokalen Servers:

http://127.0.0.1:5050

Es wird dieser Bildschirm angezeigt:

Ferngesteuerte Maschine

Wenn Sie den Chatbot auf einer Remote Machine, z.B. in der Cloud, ausführen, müssen Sie Port-Forwarding Techniken verwenden. Um den Bot über alle Netzwerkschnittstellen zugänglich zu machen, ändern Sie die Serverkonfiguration in Ihrem Code, indem Sie 127.0.0.1 in 0.0.0.0 ändern:

demo.launch(server_name="0.0.0.0", server_port=5050, auth=("user", "password")).queue().launch(root_path="/")

Hinweis: Die Bereitstellung des Bots auf einer öffentlichen Schnittstelle kann Sicherheitsrisiken bergen. Stellen Sie daher sicher, dass Sie geeignete Sicherheitsmaßnahmen getroffen haben.

Fazit

Der Entwicklungsprozess, den ich hier beschrieben habe, ebnet den Weg für die Entwicklung von Chatbots, die sachkundiger, reaktionsschneller und effektiver sind und in der Lage sind, herkömmliche Beschränkungen zu überwinden, indem sie auf aktuelle Informationen zugreifen und Antworten geben, die auf einem umfassenden Verständnis der hochgeladenen Dokumente basieren. Diese Reise in die Chatbot-Entwicklung unterstreicht die Bedeutung der Integration neuer Technologien und den Bedarf an regelmäßig aktualisierten Entwicklungsstrategien, die sich an neue Fortschritte anpassen und diese einbeziehen, um intelligentere, effizientere und benutzerfreundlichere Chatbot-Anwendungen zu schaffen. Da die Technologie immer weiter fortschreitet, ist das Potenzial von Chatbots als Werkzeuge für die Informationsbeschaffung, die Einbindung von Kunden und die personalisierte Unterstützung nur durch die Kreativität und Innovation der Entwickler begrenzt.

Bei Gcore ebnen wir den Weg für die Zukunft der KI, indem wir den gesamten Lebenszyklus der KI-Entwicklung unterstützen: Training, Inferenz und Anwendungen. Wir verwenden hochmoderne NVIDIA-Grafikprozessoren für eine herausragende Leistung in unserem globalen Netzwerk mit mehr als 180 Präsenzpunkten. Unser Ziel ist es, die Welt mit KI zu verbinden, überall und jederzeit.

Erfahren Sie mehr über Gcore Edge AI

]]>
Die 5 besten kostenlosen GUI-Tools für Kubernetes https://gcore.com/de/blog/best-free-gui-kubernetes/ Wed, 12 Jun 2024 07:00:00 +0000 https://gcore.com/blog/best-free-gui-kubernetes/ Eine grafische Benutzeroberfläche (GUI) für Kubernetes ist ein visuelles Tool, mit dem Sie Kubernetes-Cluster über eine benutzerfreundliche Oberfläche mit Fenstern, Schaltflächen und Symbolen verwalten und überwachen können. Dies ist eine Alternative zur Verwendung der Befehlszeilenschnittstelle (CLI) wie kubectl. GUIs bieten eine Reihe von Funktionen zur Vereinfachung der Kubernetes-Verwaltung, von der Bereitstellung von Anwendungen bis hin zur Überwachung von Ressourcen und der Fehlerbehebung bei Problemen. In diesem Artikel werden wir die 5 besten kostenlosen GUI-Tools für Kubernetes, ihre Funktionen, Stärken und Schwächen vorstellen. Wir zeigen Ihnen auch, wie Sie Lens installieren und wie Sie damit eine Verbindung zu einem Gcore Managed Kubernetes-Cluster herstellen.

Wie wir zu der Entscheidung für die K8-GUIs gekommen sind

Bei der Auswahl kostenloser GUIs für Kubernetes haben wir nach Tools gesucht, die die wesentlichen Funktionen für die Verwaltung eines K8s-Clusters in Produktionsqualität bieten. Diese Werkzeuge müssen nicht mit dem umfangreichen Funktionsumfang von kubectl übereinstimmen, da dies zu einer unübersichtlichen und übermäßig komplexen Schnittstelle führen könnte. Eine grafische Benutzeroberfläche sollte jedoch alle wichtigen Clusterkomponenten visualisieren und es den Benutzern ermöglichen, wichtige Verwaltungsvorgänge wie die Bearbeitung von Manifesten, das Abrufen von Protokollen und die Fehlersuche durchzuführen.

Unsere Top 5:

  • Kubernetes Dashboard
  • Lens
  • Octant
  • Skooner
  • Kubevious

Alle diese GUIs sind mit Gcore Managed Kubernetes kompatibel.

Schauen wir uns die einzelnen Tools genauer an, wobei wir uns auf ihre wichtigsten Merkmale, Stärken und Schwächen konzentrieren.

Kubernetes Dashboard

Kubernetes Dashboard ist eine beliebte GUI, die von der Kubernetes-Community unterstützt und entwickelt wird. Es ist für den täglichen Betrieb und das Debugging von Anwendungen im Cluster gedacht.

Abbildung 1: Kubernetes Dashboard GUI

Das Dashboard bietet eine übersichtliche und bequeme Navigation durch die Cluster-Namensräume und zeigt alle definierten Objekte an, z.B. Bereitstellungen, Daemon-Sets und Dienste. Mit der RBAC-Funktionalität können Sie Entwicklern einen minimalen, aber ausreichenden Zugang zu einem Cluster gewähren, um die Aufgaben auszuführen, zu denen sie berechtigt sind. Es gibt auch einen Log Viewer, mit dem Sie die Protokolle der Container eines Pods einsehen können.

Mit Kubernetes Dashboard können Sie containerisierte Anwendungen als Bereitstellungen erstellen und ausführen. Dazu müssen Sie die Details Ihrer Anwendung manuell angeben oder ein YAML- oder JSON-Manifest mit ihrer Konfiguration hochladen.

Der größte Nachteil des Dashboards ist die fehlende Unterstützung mehrerer Cluster. Wenn Sie mehrere K8s-Cluster haben, müssen Sie separate Dashboards für diese konfigurieren.

Pros

  • Intuitive Navigation durch alle wichtigen Objekte eines Clusters
  • Ansicht der Anwendungen nach Art und Zusammenschaltung
  • Ansicht von Ingresses und Services, einschließlich ihrer Verbindungen zu Pods
  • Ansicht von Persistent Volumes und Persistent Volume-Ansprüchen
  • Bearbeiten von ConfigMaps und Secrets
  • Pod Logs

Cons

  • Keine Multi-Cluster-Unterstützung
  • Keine Unterstützung für Helm Charts (vorgefertigte Anwendungen für K8s)
  • Begrenzte Anpassungsmöglichkeiten

Lens

Abbildung 2: Benutzeroberfläche des Objektivs

Lens ist als vollwertige IDE (integrierte Entwicklungsumgebung) für Kubernetes positioniert und eignet sich für alle Benutzerebenen, vom Anfänger bis zum Fortgeschrittenen. Eine IDE ist eine Softwareanwendung, die Programmierern umfassende Funktionen für die Softwareentwicklung zur Verfügung stellt, darunter einen Code-Editor, einen Debugger und Werkzeuge zur Automatisierung der Erstellung. Als eine Art grafische Benutzeroberfläche (GUI) bietet eine IDE einen visuellen Ansatz für die Softwareentwicklung, der die Verwaltung und Navigation komplexer Kodierungsaufgaben erleichtert. Im Gegensatz zum Kubernetes Dashboard, das eine Web-UI ist, ist Lens eine eigenständige Anwendung für macOS, Windows und Linux.

Lens bietet viele nützliche Funktionen, darunter Unterstützung für mehrere Cluster, Helm Charts und integriertes Prometheus, das Statistiken über die Nutzung von Rechenressourcen sammelt. Außerdem bietet es Befehlszeilenzugriff auf Clusterknoten und Container. Was die Sicherheit betrifft, so unterstützt es RBAC und ermöglicht die Bearbeitung von Secrets.

Ein weiterer Vorteil von Lens ist die integrierte Kommandozeile mit vorinstalliertem kubectl. Diese Befehlszeile wird automatisch mit der Kubernetes-API des Clusters synchronisiert, sodass Sie nicht mehrere Versionen von kubectl auf Ihrem Rechner installieren müssen, um mit verschiedenen Clustern zu arbeiten. Mit Lens haben Sie eine einzige kubectl-Instanz, die nahtlos in allen Ihren Clustern funktioniert.

Später in diesem Artikel werden wir Lens verwenden, um eine Verbindung zu einem Gcore Managed Kubernetes-Cluster herzustellen und die GUI genauer zu untersuchen.

Pros

  • Umfassende Verwaltungsfunktionen
  • Multi-Cluster-Unterstützung
  • Helm-Chart-Einsatz mit vorinstallierten gängigen Repositories
  • Prometheus-Integration
  • Integrierte CLI mit vorinstalliertem kubectl und Helm v3

Cons

  • Eingeschränkte Sicherheitsfunktionen in der kostenlosen Version
  • Aktualisierungen von Pod-Protokollen nicht in Echtzeit

Kubernetes Web-Ansicht

Abbildung 3: Kubernetes Web View Benutzeroberfläche

Kubernetes Web View ist ein Tool, das Administratoren helfen soll, auf Vorfälle zu reagieren und Fehler in einem K8s-Cluster zu beheben. Sein Autor, Henning Jacobs, nennt es „eine Web-Version von kubectl“. Kubernetes Web View unterstützt:

  • Installationen mit mehreren Clustern
  • Verfügbarkeit aller read-onlly Operationen von kubectl
  • Erstellung von permanenten Links zu K8s-Objekten und Deep Links zu bestimmten Abschnitten von YAML-Manifesten

Kubernetes Web View ist ein einfacheres Tool als z.B. Kubernetes Dashboard; es bietet eine weniger detaillierte Visualisierung. Aber das ist in Ordnung, wenn man bedenkt, dass seine Hauptnutzer wahrscheinlich erfahrene K8s-Administratoren sind.

Leider unterstützt die Kubernetes-Webansicht kein Anwendungsmanagement über Deployments oder Helm Charts. Eine weitere Einschränkung ist, dass die grafische Benutzeroberfläche nur von Henning Jacobs entwickelt und seit 2021 nicht mehr aktualisiert worden ist.

Pros

  • Unterstützung für alle Kubernetes-Objekte
  • Verfügbarkeit aller Nur-Lese-Operationen von kubectl
  • Multi-Cluster-Unterstützung
  • Einfaches, zuverlässiges Frontend, das hauptsächlich auf HTML mit minimalem JavaScript basiert
  • Dauerhafte Verknüpfungen mit K8s-Objekten
  • Deep-Links auf bestimmte Abschnitte von YAML manifests
  • Bearbeitung von Ressourcen als YAML manifests

Cons

  • Eingeschränkte Visualisierung
  • Kein Anwendungsmanagement
  • Nur ein Beitragszahler
  • Nicht aktiv mehr entwickelt
  • Keine Unterstützung für Helm-Charts

Skooner (k8dash)

Abbildung 4: Benutzeroberfläche von Skooner

Skooner, früher bekannt als k8dash, ist eine Web-UI für Echtzeit-Cluster-Management. Es bietet eine breite Palette von Funktionen, von der Erstellung von Kubernetes-Objekten bis hin zu Metriken zur Kontrolle des Ressourcenverbrauchs. Mit Skooner können Sie den Zustand eines Clusters anhand von Live-Diagrammen anzeigen und schlecht funktionierende Ressourcen verfolgen. Es ist auch das einzige mobil-optimierte Tool auf dieser Liste, so dass Sie Ihren Cluster über ein Telefon oder Tablet verwalten können.

Die Hauptnachteile von Skooner sind die fehlende Unterstützung für Multicluster-Installationen und CRDs (Custom Resource Definitions). Außerdem kann der Installationsprozess für Kubernetes-Neulinge knifflig sein.

Pros

  • Unterstützung für wichtige K8s-Komponenten, einschließlich Namespaces, Nodes, Pods, Deployments, Replica Sets und Storage
  • RBAC-Unterstützung
  • Bearbeitung von Ressourcen als YAML manifests
  • Real-time tracking des Cluster Zustandes
  • Integration von Open ID
  • Responsive Design

Cons

  • Keine Multi-Cluster-Unterstützung
  • Keine Unterstützung von CRDs
  • Keine Unterstützung für Helm-Charts

Kubevious

Abbildung 5: Kubevious GUI

Kubevious ist die einzige sicherheitsorientierte kostenlose GUI für Kubernetes in unserer Liste. Sein Hauptziel ist es, den Zustand und die Konfiguration eines Clusters sowie die Anwendungsmanifeste zu validieren. Kubevious kann Fehler wie Fehlkonfigurationen, Konflikte und sogar Tippfehler erkennen und verhindern. Es hilft Ihnen, die besten Praktiken für die Konfiguration und Verwaltung von Kubernetes zu befolgen. Sie können RBAC (rollenbasierte Zugriffskontrolle) auch über ein Arbeitsblatt mit verknüpften Rollen, Rollenbindungen und Dienstkonten verwalten.

Die grafische Benutzeroberfläche von Kubevious zeigt Kubernetes-Objekte in einer Baumstruktur an und bietet Administratoren einen klaren Überblick über Microservices, ihre Verbindungen und Abhängigkeiten. Sie bietet auch verschiedene „Ansichten“ eines Clusters aus bestimmten Perspektiven. Die Logic-Ansicht konzentriert sich beispielsweise auf Anwendungskomponenten und Abhängigkeiten, während sich die Image-Ansicht auf Container-Images und deren Repositories konzentriert, die in einem K8s-Cluster verwendet werden.

Der größte Nachteil von Kubevious ist die fehlende Multicluster-Unterstützung. Außerdem scheint der Entwicklungsprozess zu stagnieren: Die letzte Aktualisierung erfolgte im Jahr 2022.

Pros

  • Leistungsstarke Sicherheits- und Fehlerbehebungsfunktionen
  • Erweiterte RBAC-Unterstützung
  • Originelle und klare Darstellung der Struktur der K8s-Objekte
  • Kapazitätsplanung und Optimierung der Ressourcennutzung
  • Integrierte Zeitmaschine zur Anzeige früherer Clusterkonfigurationen
  • Impulse für die Anwendung von Best Practices für DevOps

Cons

  • Keine Multi-Cluster-Unterstützung
  • Nicht mehr aktiv weiterentwickelt
  • Keine Unterstützung für Helm-Charts

Vergleichstabelle

Nach der Überprüfung der einzelnen kostenlosen GUI-Tools für Kubernetes fassen wir ihre wichtigsten Funktionen in einem Vergleichsdiagramm zusammen, um die allgemeinen Funktionsunterschiede zu sehen.

 Kubernetes DashboardLensKubernetes Web-AnsichtSkoonerKubevious
Installation typeK8s-ClusterDesktopDesktop, K8s-ClusterK8s-ClusterDesktop, K8s-Cluster
Visualisierung des Clusterzustands✅✅✅✅✅
Objekte finden✅✅✅✅✅
Erstellen und Bearbeiten von Objekten✅✅✅
Einsehen der YAML-Konfiguration✅✅✅✅✅
RBAC-Verwaltung✅✅✅
Helm-Support✅
Metriken zur Ressourcennutzung✅✅✅✅
Multi-Cluster-Unterstützung✅✅
Pod Logs✅✅✅✅
Empfehlungen zur Ressourcenoptimierung✅✅✅

Zusammenfassung des Entscheidungsfindungsprozesses

Die Wahl des richtigen GUI-Tools für Kubernetes hängt von Ihren Projektanforderungen ab. Wenn Sie beispielsweise mehrere Cluster haben, werden Sie wahrscheinlich GUIs vermeiden, die keine Multicluster-Installationen unterstützen, und sich stattdessen für Kubernetes Dashboard, Skooner oder Kubevious entscheiden. Wenn Ihr Hauptaugenmerk auf der Sicherheit liegt, sollten Sie zuerst Kubevious in Betracht ziehen, auch wenn Lens die umfangreichste Funktionsliste zu haben scheint – manchmal ist eine spezialisierte GUI für Ihr Projekt besser geeignet als die mit den umfangreichsten Funktionen.

Wir empfehlen Ihnen, mindestens drei verschiedene grafische Benutzeroberflächen auszuprobieren, um deren Fähigkeiten zu testen und zu sehen, wie gut sie Ihren Anforderungen entsprechen. Diese praktische Erfahrung wird Ihnen helfen, ihre Stärken und Schwächen im Zusammenhang mit Ihren spezifischen Projektanforderungen zu verstehen, so dass Sie eine fundierte Entscheidung treffen können.

So installieren Sie Lens und greifen auf Gcore Managed Kubernetes zu

Gcore Managed Kubernetes bietet eine einfache und schnelle Möglichkeit, einen K8s-Cluster in der Cloud zu betreiben. In 10-15 Minuten haben Sie einen produktionsfähigen Cluster. Dann können Sie eine beliebige freie GUI installieren, um alle Funktionen zu nutzen, wenn Sie mit unserem Managed Kubernetes arbeiten. Wir zeigen Ihnen, wie Sie dies am Beispiel der grafischen Benutzeroberfläche für Lens tun können.

Hier erfahren Sie, wie Sie Lens mit Gcore Managed Kubernetes einsetzen können:

  1. Erstellen Sie einen Kubernetes-Cluster in der Gcore Edge Cloud.
  2. Laden Sie die Kubernetes-Konfigurationsdatei herunter.
  3. Installieren und aktivieren Sie Lens.
  4. Verbinden Sie sich mit Ihrem Kubernetes-Cluster.

Wir zeigen Ihnen auch, wie Sie Lens Metrics aktivieren, damit Sie sehen können, wie viele Rechenressourcen Ihr Cluster verbraucht.

1. Erstellen eines Kubernetes-Clusters in der Gcore Cloud

Melden Sie sich im Gcore-Kundenportal an. Wenn Sie noch nicht registriert sind, melden Sie sich kostenlos mit Ihrem E-Mail-, Google- oder GitHub-Konto an.

Klicken Sie im linken Navigationsmenü auf Cloud und dann auf Kubernetes. Klicken Sie auf der Hauptregisterkarte auf Cluster erstellen.

Abbildung 6: Erstellen eines Gcore-Kubernetes-Clusters

Konfigurieren Sie Ihren Cluster nach Bedarf, oder befolgen Sie die unten stehenden Mindestempfehlungen, die ausreichen, um Lens zu testen und zu prüfen, ob es für Sie geeignet ist:

  • Region: Ihre bevorzugte Managed Kubernetes-Region
  • Version des Kubernetes-Clusters: Es ist besser, die neueste K8s-Version zu wählen, die derzeit 1.29.2 ist.
  • Pool > Minimum / Maximum Knoten: 1/1
  • Instanztyp: Virtuelle Instanzen, 2 vCPU / 4 GiB Speicher sind ausreichend
  • Datenträgertyp: SSD mit hohem IOPS-Wert 50 GiB
  • Netzwerk-Einstellungen: Neues Netzwerk und Subnetzwerk hinzufügen oder bestehende auswählen
  • SSH-Schlüssel: Wählen Sie Ihren öffentlichen SSH-Schlüssel oder erzeugen Sie einen neuen.
  • Clustername: cluster-1 (oder wie immer Sie wollen)

Nachdem Sie die Einrichtungsschritte abgeschlossen haben, klicken Sie auf Cluster erstellen. Der Cluster wird im Abschnitt „Kubernetes-Cluster“ angezeigt. Warten Sie ein paar Minuten, bis der Status von „Erstellen“ auf „Bereitgestellt“ wechselt.

Abbildung 7: Der bereitgestellte Cluster

2. Download der Kubernetes-Konfigurationsdatei

Starten Sie Terminal auf Ihrem lokalen Rechner und erstellen Sie einen .kube-Ordner:

mkdir ~/.kube

Gehen Sie im Gcore-Kundenportal zu Ihren Cluster-Einstellungen, klicken Sie auf Kubernetes-Konfiguration und laden Sie sie in den Ordner .kube herunter:

Abbildung 8: Die Cluster-Einstellungen mit einer Kubernetes-Konfigurationsdatei

Benennen Sie diese Datei von k8sConfig.yml in config um und entfernen Sie die Erweiterung .yml.

Jetzt kann Lens auf Ihren Cluster zugreifen.

3. Objektiv installieren und aktivieren

Laden Sie Lens Desktop für Ihr Betriebssystem (OS) herunter und führen Sie das Paket aus, indem Sie die Lens-Anleitungen für ein bestimmtes OS befolgen.

Wenn Sie das Programm starten, werden Sie aufgefordert, Ihr Lens zu registrieren, auch in der kostenlosen Version. Sie können dies mit ein paar Klicks tun; wir werden diese Anweisungen hier überspringen; bitte registrieren Sie Lens auf eigene Faust.

Nach der Aktivierung von Lens sehen Sie einen Begrüßungsbildschirm wie diesen:

Abbildung 9: Willkommensbildschirm von Lens

4. Verbinden Sie sich mit Ihrem Kubernetes-Cluster

Wählen Sie in Lens in der oberen linken Ecke die Option Katalog und dann die Option Cluster. Klicken Sie auf die Schaltfläche + in der unteren rechten Ecke, um Ihre Konfigurationsdatei hinzuzufügen:

Abbildung 10: Clusterliste

Wählen Sie die zuvor heruntergeladene Konfigurationsdatei aus und klicken Sie auf Synchronisieren. Sie werden sehen, dass die Verbindung hergestellt wird:

Abbildung 11: Verbinden mit dem Cluster

Sobald Lens mit Ihrem Cluster verbunden ist, wird es in der Clusterliste angezeigt.

Herzlichen Glückwunsch! Sie sind nun bereit, Ihren Cluster mit Lens zu verwalten. Doppelklicken Sie auf Ihren Cluster, um eine Übersicht zu erhalten:

Abbildung 12: Allgemeiner Überblick über den Cluster

5. Objektivmetriken aktivieren (optional)

Die Aktivierung von Lens Metrics hilft Ihnen, Ihren Cluster auf die eigentliche Arbeit vorzubereiten. Die Funktion bietet Metrics-Exporters, die Daten über die Ressourcennutzung Ihres Clusters sammeln.

Öffnen Sie die Cluster-Einstellungen und wählen Sie Lens Metrics. Schalten Sie alle Optionen ein:

Abbildung 13: Aktivieren von Objektivmetriken

Auf der Cluster-Übersichtsseite sehen Sie, dass Lens begonnen hat, die CPU-, Speicher-, Netzwerk- und andere Ressourcennutzung zu visualisieren. Sie können sogar sehen, wie viele Rechenressourcen jede Anwendung verbraucht:

Abbildung 14: Statistiken zum Anwendungsverbrauch

Fazit

Kostenlose GUI-Tools für Kubernetes bieten eine Reihe von Features und Funktionen für die Visualisierung und Verwaltung von Kubernetes-Ressourcen, von intuitiven webbasierten Schnittstellen bis hin zu Multi-Cluster-Unterstützung und YAML-Editoren. Einige GUIs sind universell einsetzbar, wie Lens und Kubernetes Dashboard, während andere spezifischer sind, wie Kubevious.

Egal, für welche dieser kostenlosen Kubernetes-GUIs Sie sich entscheiden, Sie können sie mit Gcore Managed Kubernetes verwenden. Gcore Managed Kubernetes bietet Unterstützung für Bare-Metal- und Virtual-Machine-Worker-Nodes, kostenloses Cluster-Management mit einem SLA von 99,9 % und die gleichen Preise für Worker-Nodes wie für VMs und Bare-Metal-Instanzen.

Erfahren Sie mehr über Gcore Managed Kubernetes

]]>
Wie man versteckte Schwachstellen in Kubernetes RBAC-Berechtigungen verwaltet https://gcore.com/de/blog/k8s-rbac-permissions/ Mon, 10 Jun 2024 07:00:00 +0000 https://gcore.com/blog/k8s-rbac-permissions/ Dieser Artikel wurde ursprünglich auf The New Stack veröffentlicht. Er wurde von Dmitrii Bubnov geschrieben, einem DevSecOps-Ingenieur bei Gcore mit 14 Jahren Erfahrung in der IT.


Die rollenbasierte Zugriffskontrolle (RBAC) ist der Standardansatz für die Zugriffskontrolle in Kubernetes. Dieses Modell kategorisiert Berechtigungen mit Hilfe spezifischer Verbs, um erlaubte Interaktionen mit Ressourcen zu definieren. Innerhalb dieses Systems können drei weniger bekannte Berechtigungen –escalate, bind und impersonate– bestehende Rollenbeschränkungen außer Kraft setzen, unbefugten Zugriff auf eingeschränkte Bereiche gewähren, vertrauliche Daten offenlegen oder sogar die vollständige Kontrolle über einen Cluster ermöglichen. Dieser Artikel erläutert diese leistungsstarken Berechtigungen und gibt einen Überblick über ihre Funktionen sowie Hinweise zur Minderung der damit verbundenen Risiken.

Eine kurze Erinnerung an RBAC-Rollen und Verbs

In diesem Artikel gehe ich davon aus, dass Sie bereits mit den Schlüsselkonzepten von Kubernetes RBAC vertraut sind. Falls nicht, lesen Sie bitte die Dokumentation von Kubernetes.

Wir müssen jedoch kurz an ein wichtiges Konzept erinnern, das in direktem Zusammenhang mit diesem Artikel steht: Role. Hier werden die Zugriffsrechte auf K8s-Ressourcen innerhalb eines bestimmten Namespace und die verfügbaren Operationen beschrieben. Rollen bestehen aus einer Reihe von Regeln. Die Regeln umfassen verbs-verfügbare Vorgänge für definierte Ressourcen.

Hier ist ein Beispiel für eine Rolle aus der K8s-Dokumentation, die Lesezugriff auf Pods gewährt:

apiVersion: rbac.authorization.k8s.io/v1
kind: Role
metadata:
  namespace: default
  name: pod-reader
rules:
- apiGroups: [""] # "" points to the core API group
  resources: ["pods"]
  verbs: ["get", "watch", "list"]

Verbs wie get, watch, und list werden häufig verwendet. Aber es gibt andere, die noch viel spannender sind.

Drei weniger bekannte Kubernetes RBAC-Berechtigungen

Für eine detailliertere und komplexere Verwaltung von Berechtigungen verfügt das K8s RBAC über die folgenden Verbs:

  • escalate: Ermöglicht es Benutzern, Rollen zu erstellen und zu bearbeiten, auch wenn sie nicht über die ursprünglichen Berechtigungen dazu verfügen.
  • bind: Ermöglicht Benutzern die Erstellung und Bearbeitung von Rollenbindungen und Cluster-Rollenbindungen mit Berechtigungen, die ihnen nicht zugewiesen wurden.
  • impersonate: Ermöglicht es Benutzern, sich als andere Benutzer auszugeben und deren Berechtigungen im Cluster oder in einer anderen Gruppe zu erhalten. Mit diesem Verb kann auf kritische Daten zugegriffen werden.

Im Folgenden werden wir sie genauer kennenlernen. Aber zuerst wollen wir einen Test-Namespace erstellen und ihn rbac nennen:

kubectl create ns rbac

Erstellen Sie dann eine Test-SA privesc:

kubectl -n rbac create sa privesc

Wir werden sie im weiteren Verlauf dieses Lehrgangs verwenden.

Escalate

Standardmäßig erlaubt die RBAC-API von Kubernetes Benutzern nicht, ihre Berechtigungen durch einfaches Bearbeiten einer Rolle oder Rollenbindung zu erweitern. Diese Einschränkung gilt auf API-Ebene auch dann, wenn die RBAC-Autorisierung deaktiviert ist. Die einzige Ausnahme ist, wenn die Rolle das Verb escalate hat.

In der folgenden Abbildung kann die SA, die nur über die Berechtigungen update und patch verfügt, der Rolle kein neues Verb hinzufügen. Aber wenn wir eine neue Rolle mit dem Verb escalate hinzufügen, wird es möglich:

Abbildung 1: Durch Hinzufügen des Verbs „escalate“ zur Rolle kann der Benutzer die Rollenberechtigungen ändern und ein neues Verb hinzufügen

Schauen wir uns die Funktionsweise im Detail an.

Erstellen Sie eine Rolle, die nur Lesezugriff auf Pods und Rollen in diesem Namespace erlaubt:

kubectl -n rbac create role view --verb=list,watch,get --resource=role,pod

Verknüpfen Sie diese Rolle mit der SA privesc:

kubectl -n rbac create rolebinding view --role=view --serviceaccount=rbac:privesc

Prüfen Sie, ob die Rolle aktualisiert werden kann:

kubectl auth can-i update role -n rbac --as=system:serviceaccount:rbac:privesc 

no

Wie wir sehen können, kann die SA Rollen lesen, aber nicht bearbeiten.

Erstellen Sie eine neue Rolle, die die Bearbeitung von Rollen im rbac-Namenspace ermöglicht:

kubectl -n rbac create role edit --verb=update,patch --resource=role

Verknüpfen Sie diese neue Rolle an die SA privesc:

kubectl -n rbac create rolebinding edit --role=edit --serviceaccount=rbac:privesc

Prüfen Sie, ob die Rolle aktualisiert werden kann:

kubectl auth can-i update role -n rbac --as=system:serviceaccount:rbac:privesc

yes

Prüfen Sie, ob die Rolle gelöscht werden kann:

kubectl auth can-i delete role -n rbac --as=system:serviceaccount:rbac:privesc

no

Die SA kann jetzt Rollen bearbeiten, aber nicht löschen.

Im Interesse der experimentellen Genauigkeit sollten wir die SA-Fähigkeiten überprüfen. Dazu verwenden wir ein JWT (JSON Web Token):

TOKEN=$(kubectl -n rbac create token privesc --duration=8h)

Wir sollten die alten Authentifizierungsparameter aus der Konfiguration entfernen, da Kubernetes zuerst das Zertifikat des Benutzers überprüft und das Token nicht überprüft, wenn es das Zertifikat bereits kennt.

cp ~/.kube/config ~/.kube/rbac.conf
export KUBECONFIG=~/.kube/rbac.conf
kubectl config delete-user kubernetes-admin
kubectl config set-credentials privesc --token=$TOKEN
kubectl config set-context --current --user=privesc

Diese Rolle zeigt, dass wir andere Rollen bearbeiten können:

kubectl -n rbac get role edit -oyaml

apiVersion: rbac.authorization.k8s.io/v1
kind: Role
metadata:
  name: edit
  namespace: rbac
rules:
- apiGroups:
  - rbac.authorization.k8s.io
  resources:
  - roles
  verbs:
  - update
  - patch

Versuchen wir, ein neues Verb hinzuzufügen, list, das wir bereits in der Ansichtsrolle verwendet haben:

kubectl -n rbac edit  role edit

OK

apiVersion: rbac.authorization.k8s.io/v1
kind: Role
metadata:
  name: edit
  namespace: rbac
rules:
- apiGroups:
  - rbac.authorization.k8s.io
  resources:
  - roles
  verbs:
  - update
  - patch
  - list   # the new verb we added

Success.

Versuchen wir nun, ein neues Verb hinzuzufügen, nämlich delete, das wir in anderen Rollen noch nicht verwendet haben:

kubectl -n rbac edit  role edit

apiVersion: rbac.authorization.k8s.io/v1
kind: Role
metadata:
  name: edit
  namespace: rbac
rules:
- apiGroups:
  - rbac.authorization.k8s.io
  resources:
  - roles
  verbs:
  - update
  - patch
  - delete   # trying to add a new verb

error: roles.rbac.authorization.k8s.io "edit" could not be patched: roles.rbac.authorization.k8s.io "edit" is forbidden: user "system:serviceaccount:rbac:privesc" (groups=["system:serviceaccounts" "system:serviceaccounts:rbac" "system:authenticated"]) is attempting to grant RBAC permissions not currently held:
{APIGroups:["rbac.authorization.k8s.io"], Resources:["roles"], Verbs:["delete"]}

Dies bestätigt, dass Kubernetes es Benutzern oder Dienstkonten nicht erlaubt, neue Berechtigungen hinzuzufügen, wenn sie diese nicht bereits haben – nur wenn Benutzer oder Dienstkonten an Rollen mit solchen Berechtigungen gebunden sind.

Erweitern wir die privesc SA-Berechtigungen. Dazu verwenden wir die Admin-Konfiguration und fügen eine neue Rolle mit dem Verb escalate hinzu:

KUBECONFIG=~/.kube/config kubectl -n rbac create role escalate --verb=escalate --resource=role

Jetzt binden wir die privesc SA an die neue Rolle:

KUBECONFIG=~/.kube/config kubectl -n rbac create rolebinding escalate --role=escalate --serviceaccount=rbac:privesc

Prüfen Sie noch einmal, ob wir der Rolle ein neues Verb hinzufügen können:

kubectl -n rbac edit  role edit

apiVersion: rbac.authorization.k8s.io/v1
kind: Role
metadata:
  name: edit
  namespace: rbac
rules:
- apiGroups:
  - rbac.authorization.k8s.io
  resources:
  - roles
  verbs:
  - update
  - patch
  - delete   # the new verb we added

role.rbac.authorization.k8s.io/edit edited

Jetzt funktioniert es. Der Benutzer kann die SA-Rechte erweitern, indem er die bestehende Rolle bearbeitet. Das bedeutet, dass das Verb escalate die Rechte eines Admins, einschließlich der Rechte eines Namespace-Admins oder sogar eines Cluster-Admins, verleiht.

Bind

Das bind Verb erlaubt es dem Benutzer die Bearbeitung der RoleBinding oder ClusterRoleBinding für Berechtigungserweiterung, ähnlich wie bei escalatedie es dem Benutzer ermöglicht, die Role oder ClusterRole.

In der folgenden Abbildung kann die SA mit der Rollenbindung, die die Verbs update, patch und create enthält, erst dann delete hinzufügen, wenn wir eine neue Rolle mit dem Verb bind erstellen.

Abbildung 2: Das Hinzufügen der neuen Rolle mit dem Verb bind ermöglicht es dem Benutzer, die Bindungsberechtigungen der Rolle zu erweitern

Schauen wir uns nun genauer an, wie das funktioniert.

Ändern wir die kubeconfig-Datei auf admin:

export KUBECONFIG=~/.kube/config

Entfernen Sie alte Rollen und Bindungen:

kubectl -n rbac delete rolebinding view edit escalate
kubectl -n rbac delete role view edit escalate

Erlauben Sie der SA, die Rollenbindung und die Pod-Ressourcen im Namenspace anzuzeigen und zu bearbeiten:

kubectl -n rbac create role view --verb=list,watch,get --resource=role,rolebinding,pod

kubectl -n rbac create rolebinding view --role=view --serviceaccount=rbac:privesc

kubectl -n rbac create role edit --verb=update,patch,create --resource=rolebinding,pod

kubectl -n rbac create rolebinding edit --role=edit --serviceaccount=rbac:privesc

Erstellen Sie separate Rollen für die Arbeit mit Pods, aber binden Sie die Rolle trotzdem nicht:

kubectl -n rbac create role pod-view-edit --verb=get,list,watch,update,patch --resource=pod

kubectl -n rbac create role delete-pod --verb=delete --resource=pod

Ändern Sie die kubeconfig auf das SA-Recht und versuchen Sie, die Rollenbindung zu bearbeiten:

export KUBECONFIG=~/.kube/rbac.conf

kubectl -n rbac create rolebinding pod-view-edit --role=pod-view-edit --serviceaccount=rbac:privesc

rolebinding.rbac.authorization.k8s.io/pod-view-edit created

Die neue Rolle wurde erfolgreich an die SA gebunden. Beachten Sie, dass die Rolle pod-view-edit Verbs und Ressourcen enthält, die bereits durch die Rollenbindung view und edit an die SA gebunden wurden.

Versuchen wir nun, eine Rolle mit einem neuen Verb zu binden, delete, das in den an die SA gebundenen Rollen fehlt:

kubectl -n rbac create rolebinding delete-pod --role=delete-pod --serviceaccount=rbac:privesc

error: failed to create rolebinding: rolebindings.rbac.authorization.k8s.io "delete-pod" is forbidden: user "system:serviceaccount:rbac:privesc" (groups=["system:serviceaccounts" "system:serviceaccounts:rbac" "system:authenticated"]) is attempting to grant RBAC permissions not currently held:
{APIGroups:[""], Resources:["pods"], Verbs:["delete"]}

Kubernetes lässt dies nicht zu, obwohl wir die Berechtigung haben, Rollenbindungen zu bearbeiten und zu erstellen. Aber das können wir mit dem Verb bind ändern. Verwenden wir dazu die Admin-Konfiguration:

KUBECONFIG=~/.kube/config kubectl -n rbac create role bind --verb=bind --resource=role

role.rbac.authorization.k8s.io/bind created

KUBECONFIG=~/.kube/config kubectl -n rbac create rolebinding bind --role=bind --serviceaccount=rbac:privesc

rolebinding.rbac.authorization.k8s.io/bind created

Versuchen Sie noch einmal, eine Rollenbindung mit dem neuen Verb delete zu erstellen:

kubectl -n rbac create rolebinding delete-pod --role=delete-pod --serviceaccount=rbac:privesc

rolebinding.rbac.authorization.k8s.io/delete-pod created

Jetzt funktioniert es. Mit dem Verb bind kann die SA also jede Rolle an sich selbst oder an jeden Benutzer binden.

Impersonate

Das Verb impersonate in K8s ist wie sudo in Linux. Wenn Benutzer Zugriff auf impersonate haben, können sie sich als andere Benutzer authentifizieren und Befehle in deren Namen ausführen. kubectl verfügt über die Optionen --as, --as-group und --as-uid, die es ermöglichen, Befehle unter einem anderen Benutzer, einer anderen Gruppe bzw. einer anderen UID (einem universell eindeutigen Bezeichner) auszuführen. Wenn ein Benutzer Impersonation-Berechtigungen erhält, wird er zum Namespace-Admin oder – wenn es im Namespace ein cluster-admin-Dienstkonto gibt – sogar zum Cluster-Admin.

Impersonate ist hilfreich, um die an einen Benutzer delegierten RBAC-Berechtigungen zu überprüfen: Ein Administrator sollte einen Befehl gemäß der Vorlage kubectl auth can-i --as=$USERNAME -n $NAMESPACE $VERB $RESOURCE ausführen und prüfen, ob die Berechtigung wie vorgesehen funktioniert.

In unserem Beispiel würde die SA keine Informationen über Pods im rbac-Namensraum erhalten, wenn sie nur kubectl -n rbac get pod ausführt. Aber es wird möglich, wenn es eine Rolle mit dem Verb impersonate gibt:

kubectl auth can-i get pod -n rbac --as=system:serviceaccount:rbac:privesc

yes
Abbildung 3: Abrufen von Informationen über Pods mit einer Rolle, die das Verb impersonate hat

Erstellen wir ein neues Dienstkonto, impersonator, im rbac-Namensraum; diese SA wird keine Berechtigungen haben:

KUBECONFIG=~/.kube/config kubectl -n rbac create sa impersonator

serviceaccount/impersonator created

Erstellen Sie nun eine Rolle mit dem Verb impersonate und einer Rollenbindung:

KUBECONFIG=~/.kube/config kubectl -n rbac create role impersonate --resource=serviceaccounts --verb=impersonate --resource-name=privesc

(Sehen Sie sich den Parameter --resource-name im obigen Befehl an: er erlaubt nur Impersonation als privesc SA.)

role.rbac.authorization.k8s.io/impersonate created

KUBECONFIG=~/.kube/config kubectl -n rbac create rolebinding impersonator --role=impersonate --serviceaccount=rbac:impersonator

rolebinding.rbac.authorization.k8s.io/impersonator created

Erstellen Sie einen neuen Kontext:

TOKEN=$(KUBECONFIG=~/.kube/config kubectl -n rbac create token impersonator --duration=8h)

kubectl config set-credentials impersonate --token=$TOKEN   

User "impersonate" set.

kubectl config set-context impersonate@kubernetes  --user=impersonate --cluster=kubernetes

Context "impersonate@kubernetes" created.

kubectl config use-context impersonate@kubernetes

Switched to context "impersonate@kubernetes".

Überprüfen Sie die Berechtigungen:

kubectl auth can-i --list -n rbac

Resources                                       Non-Resource URLs                     Resource Names   Verbs
selfsubjectaccessreviews.authorization.k8s.io   []                                    []               [create]
selfsubjectrulesreviews.authorization.k8s.io    []                                    []               [create]

...

serviceaccounts                                 []                                    [privesc]        [impersonate]

Neben impersonate gibt es keine weiteren Berechtigungen, wie in der Rolle angegeben. Wenn wir jedoch die impersonator SA als privesc SA ausgeben, können wir sehen, dass wir dieselben Berechtigungen erhalten, die die privesc SA hat:

kubectl auth can-i --list -n rbac --as=system:serviceaccount:rbac:privesc

Resources                                       Non-Resource URLs                     Resource Names   Verbs
roles.rbac.authorization.k8s.io                 []                                    [edit]           [bind escalate]
selfsubjectaccessreviews.authorization.k8s.io   []                                    []               [create]
selfsubjectrulesreviews.authorization.k8s.io    []                                    []               [create]
pods                                            []                                    []               [get list watch update patch delete create]

...

rolebindings.rbac.authorization.k8s.io          []                                    []               [list watch get update patch create bind escalate]
roles.rbac.authorization.k8s.io                 []                                    []               [list watch get update patch create bind escalate]
configmaps                                      []                                    []               [update patch create delete]
secrets                                         []                                    []               [update patch create delete]

Somit hat die impersonate SA alle ihre eigenen Privilegien und alle Privilegien der SA, die sie verkörpert, einschließlich derjenigen, die ein Namespace-Admin hat.

Wie man potenzielle Bedrohungen entschärft

Die Verbs escalate, bind und impersonate können zur Erstellung flexibler Berechtigungen verwendet werden, die eine granulare Verwaltung des Zugriffs auf die Infrastruktur von K8 ermöglichen. Sie öffnen aber auch Tür und Tor für eine böswillige Nutzung, da sie in einigen Fällen einem Benutzer den Zugriff auf wichtige Infrastrukturkomponenten mit Administratorrechten ermöglichen.

Drei Vorgehensweisen können helfen, die potenziellen Gefahren einer missbräuchlichen oder böswilligen Verwendung dieser Verbs zu entschärfen:

  • Regelmäßige Überprüfung der RBAC-Manifests
  • Verwenden Sie das Feld resourceNames in den Manifests Role und ClusterRole
  • Externe Tools zur Überwachung von Rollen verwenden

Betrachten wir sie der Reihe nach.

Regelmäßige Überprüfung der RBAC-Manifests

Um unbefugten Zugriff und RBAC-Fehlkonfigurationen zu verhindern, sollten Sie die RBAC-Manifests Ihres Clusters regelmäßig überprüfen:

kubectl get clusterrole -A -oyaml | yq '.items[] | select (.rules[].verbs[] | contains("esalate" | "bind" | "impersonate"))  | .metadata.name'

kubectl get role -A -oyaml | yq '.items[] | select (.rules[].verbs[] | contains("esalate" | "bind" | "impersonate"))  | .metadata.name'

Verwenden Sie das Feld ResourceNames

Um die Verwendung von escalate, bind, impersonateoder beliebige andere Verben, konfigurieren Sie die resourceNames Feld in der Role und ClusterRole Manifests. Dort können – und sollten – Sie die Namen der Ressourcen eingeben, die verwendet werden können.

Hier ist ein Beispiel für ein ClusterRole, das die Erstellung eines ClusterRoleBinding mit roleRef named edit und view ermöglicht:

apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  name: role-grantor
rules:
- apiGroups: ["rbac.authorization.k8s.io"]
  resources: ["clusterroles"]
  verbs: ["bind"]
  resourceNames: ["edit","view"]

Das Gleiche gilt für „escalate“ und „impersonate“.

Beachten Sie, dass im Fall von bind ein Administrator die Berechtigungen in einer Rolle festlegt und die Benutzer diese Rolle nur an sich selbst binden können, wenn dies in resourceNames erlaubt ist. Mit escalate können Benutzer beliebige Parameter innerhalb einer Rolle schreiben und Admins eines Namespaces oder Clusters werden. So schränkt bind die Nutzer ein, während escalate ihnen mehr Möglichkeiten bietet. Beachten Sie dies, wenn Sie diese Berechtigungen erteilen müssen.

Verwenden Sie externe Tools für das Monitoring von Rollen

Ziehen Sie den Einsatz automatischer Systeme in Betracht, die das Erstellen oder Bearbeiten von Rollen mit verdächtigen Inhalten überwachen, z.B. Falco oder Tetragon.

Sie können Kubernetes-Audit-Protokolle auch an ein Protokollverwaltungssystem wie Gcore Managed Logging weiterleiten, das für die Analyse und Analyse von K8s-Protokollen nützlich ist. Um ein versehentliches Löschen von Ressourcen zu verhindern, erstellen Sie ein separates Dienstkonto mit dem Verb delete und erlauben Sie den Benutzern, nur dieses Dienstkonto zu verkörpern. Das ist das Prinzip des geringsten Widerstandes. Um diesen Prozess zu vereinfachen, können Sie das kubectl-Plugin kubectl-sudo verwenden.

Bei Gcore nutzen wir diese Methoden, um unseren Managed Kubernetes-Service sicherer zu machen. Wir empfehlen allen unseren Kunden, dasselbe zu tun. Die Nutzung von Managed Services garantiert nicht, dass Ihre Dienste standardmäßig 100% sicher sind, aber bei Gcore tun wir alles, um den Schutz unserer Kunden zu gewährleisten, einschließlich der Förderung von RBAC Best Practices.

Fazit

Mit den Verben escalate, bind und impersonate können Administratoren den Zugriff auf die K8-Infrastruktur flexibel verwalten und Benutzern die Möglichkeit geben, ihre Berechtigungen zu erweitern. Dies sind mächtige Werkzeuge, die bei Missbrauch erheblichen Schaden an einem K8s-Cluster anrichten können. Prüfen Sie jede Verwendung dieser Verben sorgfältig und stellen Sie sicher, dass die Regel der geringsten Zugriffsberechtigung befolgt wird: Benutzer müssen die minimalen Rechte haben, die für den Betrieb erforderlich sind, nicht mehr.

Suchen Sie nach einer einfachen Möglichkeit, Ihre K8s-Cluster zu verwalten? Testen Sie Gcore Managed Kubernetes. Wir bieten virtuelle Maschinen und Bare-Metal-Server mit GPU-Worker-Nodes zur Steigerung Ihrer KI/ML-Workloads. Die Preise für Worker Nodes sind dieselben wie für unsere virtuellen Maschinen und Bare Metal Server. Wir bieten Ihnen ein kostenloses, production-grade Cluster-Management mit einem SLA von 99,9 %, damit Sie sich keine Sorgen machen müssen.

Entdecken Sie Gcore Managed Kubernetes

]]>
Geschäftliche Vorteile von AI Inference at the Edge https://gcore.com/de/blog/inference-at-the-edge-business-benefits/ Fri, 15 Mar 2024 16:03:35 +0000 https://gcore.com/blog/inference-at-the-edge-business-benefits/ Die Verlagerung der KI-Inferenzierung von der Cloud zum Edge verbessert die Entscheidungsfindung in Echtzeit, indem die Datenverarbeitung näher an die Datenquellen herangeführt wird. Für Unternehmen bedeutet diese Umstellung eine erhebliche Verringerung der Latenzzeiten und damit eine unmittelbare Verbesserung der Benutzerfreundlichkeit, da Inhalte nahezu sofort bereitgestellt werden und eine Interaktion in Echtzeit möglich ist. Dieser Artikel befasst sich mit den geschäftlichen Vorteilen von Edge KI in verschiedenen Branchen und Anwendungen und unterstreicht die Bedeutung der unmittelbaren Datenanalyse für den Geschäftserfolg.

Wie wirkt sich AI Inference at the Edge auf Unternehmen aus?

Der Einsatz von KI-Modellen am Edge bedeutet, dass die Daten während der KI-Inferenz vor Ort oder in der Nähe des Benutzers verarbeitet werden, was eine Datenverarbeitung und Entscheidungsfindung in unmittelbarer Nähe und in Echtzeit ermöglicht. Die KI-Inferenz ist der Prozess der Anwendung des Wissens eines trainierten Modells auf neue, ungesehene Daten und wird am Edge deutlich effizienter. KI mit geringer Latenz ist für Unternehmen unerlässlich, die auf aktuelle Datenanalysen angewiesen sind, um Entscheidungen zu treffen, das Kundenerlebnis zu verbessern und sich einen Wettbewerbsvorteil zu verschaffen.

Wie es funktioniert: Edge vs. Cloud

Edge KI ermöglicht die Verarbeitung direkt vor Ort

Durch die Edge-Inferenz werden die Verzögerungen beseitigt, die bei dem traditionellen Modell, das der Edge-Inferenz vorausging, für die Übertragung von Informationen an weit entfernte Cloud-Server charakteristisch waren. Dies geschieht durch die Verringerung der physischen Entfernung zwischen dem Gerät, das die KI-Inferenz anfordert, und dem Server, auf dem die Inferenz durchgeführt wird. Dadurch können die Anwendungen fast in Echtzeit auf Änderungen oder Eingaben reagieren.

Vorteile von AI Inference at the Edge

Die Umstellung auf Edge-KI bietet für Unternehmen aller Branchen erhebliche Vorteile. (Im nächsten Abschnitt werden wir uns mit den branchenspezifischen Vorteilen und Anwendungsfällen befassen.)

Datenverarbeitung in Echtzeit

Edge KI revolutioniert Geschäftsabläufe, indem Daten nahezu sofort an ihrem Entstehungsort oder in dessen Nähe verarbeitet werden. Dies ist entscheidend für Branchen, in denen Zeit eine wesentliche Rolle spielt, wie Gaming, Gesundheitswesen und Unterhaltung. Diese Technologie verkürzt die Zeitspanne zwischen Datenerfassung und -analyse drastisch, liefert sofort verwertbare Informationen und ermöglicht es Unternehmen, Einblicke in Echtzeit zu gewinnen, rasche Entscheidungen zu treffen und Abläufe zu optimieren.

Bandbreiteneffizienz

Durch die lokale Verarbeitung von Daten minimiert die Edge KI die Datenmenge, die über Netzwerke übertragen werden muss. Durch diese Verringerung der Datenübertragung werden Netzüberlastungen gemindert und die Systemleistung verbessert, was für Umgebungen mit hohem Datenverkehr von entscheidender Bedeutung ist.

Für Unternehmen bedeutet dies, dass der Betrieb auch in Spitzenzeiten unterbrechungsfrei und reaktionsschnell bleibt, ohne dass kostspielige Netzaufrüstungen erforderlich sind. Dies führt direkt zu greifbaren finanziellen Einsparungen in Kombination mit einer zuverlässigeren Servicebereitstellung für die Kunden – ein Win-Win-Szenario durch Inference at the Edge.

Reduzierte Kosten

Edge KI hilft Unternehmen, den Bedarf an häufigen Datentransfers zu Cloud-Diensten zu minimieren, was den Bedarf an Bandbreite, Infrastruktur und Speicherplatz für ein umfangreiches Datenmanagement erheblich senkt. Dadurch wird der gesamte Datenverarbeitungsprozess kosteneffizienter.

Erreichbarkeit und Verlässlichkeit

Das Design von Edge KI ermöglicht den Betrieb auch ohne ständigen Internetzugang, indem KI-Anwendungen auf lokalen Geräten bereitgestellt werden, ohne dass eine Verbindung zu entfernten Servern erforderlich ist. Dies gewährleistet eine stabile Leistung und Zuverlässigkeit, so dass Unternehmen unabhängig von geografischen oder infrastrukturellen Beschränkungen hohe Servicestandards und betriebliche Kontinuität aufrechterhalten können.

Verbesserter Datenschutz und Sicherheit

Trotz der intensiven Nutzung und des Teilens von Erlebnissen auf Plattformen wie TikTok und X sind die Nutzer heutzutage zunehmend datenschutzbewusst. Dafür gibt es gute Gründe, denn die Zahl der Datenschutzverletzungen nimmt zu. Sie kosten Unternehmen aller Größenordnungen Millionen und gefährden die Daten von Einzelpersonen. Beispielsweise führte der weithin bekannte T-Mobile-Datenverstoß im Jahr 2022 zu einem Unternehmensschaden von 350 Millionen US-Dollar. Unternehmen, die KI-gestützte Funktionen anbieten, haben ein starkes Interesse an der Teilhabe der Nutzer und versprechen ihnen in der Regel die Kontrolle über die Nutzung der Modelle, die Wahrung des Datenschutzes und das Eigentum an den Inhalten. Die Verlagerung von KI-Daten an den Edge kann zu solchen Datenschutzbemühungen beitragen.

Die lokale Datenverarbeitung von Edge KI bedeutet, dass die Datenanalyse direkt auf dem Gerät erfolgen kann, auf dem die Daten gesammelt werden, und nicht an entfernte Server gesendet werden muss. Diese Nähe verringert das Risiko des Abfangens von Daten oder des unbefugten Zugriffs erheblich, da weniger Daten über die Netze übertragen werden.

Die lokale Verarbeitung von Daten – entweder auf einzelnen Geräten oder auf einem nahegelegenen Server – erleichtert die Einhaltung von Datenschutzbestimmungen und Sicherheitsprotokollen wie der DSGVO. Solche Vorschriften verlangen, dass sensible Daten innerhalb bestimmter Regionen aufbewahrt werden. Edge KI erreicht dieses hohe Maß an Compliance, indem es Unternehmen ermöglicht, Daten in derselben Region oder demselben Land zu verarbeiten, in dem sie erzeugt wurden.

So könnte beispielsweise ein weltweit tätiges KI-Unternehmen die Daten eines französischen Nutzers von einem französischen KI-Server verarbeiten lassen und die Daten eines kalifornischen Nutzers von einem Server in Kalifornien. Auf diese Weise würde die Datenverarbeitung der beiden Nutzer automatisch den jeweiligen lokalen Gesetzen entsprechen: Die des französischen Nutzers würde gemäß dem europäischen Standard DSGVO erfolgen, und die des kalifornischen Nutzers gemäß CCPA und CPRA.

Wie Edge KI die Anforderungen der Industrie an eine Datenverarbeitung mit niedriger Latenzzeit erfüllt

Während Edge KI in allen Branchen erhebliche Vorteile bietet, ist ihre Einführung in einigen Anwendungsfällen kritischer als in anderen, insbesondere in solchen, die Geschwindigkeit und Effizienz erfordern, um einen Wettbewerbsvorteil zu erlangen und zu halten. Schauen wir uns einige Branchen an, in denen Inference at the Edge besonders wichtig ist.

Unterhaltung

In der Unterhaltungsbranche ermöglicht die KI den Anbietern, den Nutzern hochgradig personalisierte Inhalte und interaktive Funktionen direkt anzubieten. Es bietet erheblichen Mehrwert in Form von Live-Sport-Updates, kontextbezogenen Spielerinformationen, interaktiven Filmfunktionen, Echtzeitanalysen von Benutzerpräferenzen und maßgeschneiderten Empfehlungen, indem es die Bandbreitennutzung optimiert und die Verzögerungszeiten eliminiert, die mit der Nutzung entfernter Server verbunden sind. Diese Funktionen fördern eine stärkere Einbindung der Zuschauer und ein intensiveres und angenehmeres Unterhaltungserlebnis.

GenAI

Stellen Sie sich ein Unternehmen vor, das personalisierte Inhalte revolutioniert, indem es den Nutzern ermöglicht, mit Hilfe künstlicher Intelligenz schöne, individuell gestaltete Bilder zu erstellen, in die persönliche Elemente wie Fotos, die sie von sich selbst, von Produkten, Haustieren oder anderen persönlichen Gegenständen integriert werden können. Anwendungen wie diese gibt es bereits.

Die Nutzer von heute erwarten bei ihren digitalen Interaktionen sofortige Antworten. Um seine Nutzer zu binden und zu begeistern, muss ein solches Unternehmen Wege finden, die Erwartungen seiner Nutzer zu erfüllen, sonst riskiert es, sie an die Konkurrenz zu verlieren.

Die lokale Verarbeitung dieser unterhaltungsrelevanten Daten zur Bilderzeugung erhöht die Sicherheit, da sensible Informationen nicht über das Internet zu weit entfernten Servern übertragen werden müssen. Durch die Verarbeitung von Benutzeranfragen direkt auf den Geräten oder nahegelegenen Servern kann die Edge-KI zudem Verzögerungen bei der Bilderzeugung minimieren, was die Anpassung von Bildern beschleunigt und eine Interaktion mit der Anwendung in Echtzeit ermöglicht. Das Ergebnis: eine tiefere, zufriedenstellendere Verbindung zwischen den Nutzern und der Technologie.

Fertigung

In der Fertigung modernisiert die KI die vorausschauende Wartung und Qualitätskontrolle, indem sie intelligente Verarbeitungsfunktionen direkt in die Fabrikhalle bringt. Dies ermöglicht eine Echtzeit-Überwachung von Maschinen und Anlagen, wobei die fortschrittliche maschinelle Bildverarbeitung und die kontinuierliche und detaillierte Analyse von Vibrations-, Temperatur- und akustischen Daten von Maschinen zur Erkennung von Qualitätsabweichungen genutzt werden. Die praktische Auswirkung ist eine Verringerung der Defekte und eine Reduzierung der Ausfallzeiten durch vorausschauende Wartung. Inference at the Edge ermöglicht die dafür erforderliche Echtzeit-Reaktion.

Große Unternehmen haben bereits KI auf diese Weise eingesetzt. So werden beispielsweise die chemischen Mischtanks von Procter & Gamble von KI-Lösungen überwacht, die die Abteilungsleiter sofort über Qualitätsabweichungen benachrichtigen und so verhindern, dass fehlerhafte Produkte die Fertigungsstraße weiter durchlaufen. In ähnlicher Weise setzt BMW eine Kombination aus Edge-Computing und KI ein, um einen Echtzeit-Überblick über seine Montagelinien zu erhalten und so die Effizienz und Sicherheit seiner Fertigungsprozesse zu gewährleisten.

Fertigungsanwendungen für Inference at the Edge der Wertschöpfungskette senken die Betriebskosten erheblich, indem sie die Wartung der Anlagen und die Qualitätskontrolle optimieren. Die Fähigkeit der Technologie, Daten vor Ort oder in der Nähe zu verarbeiten, verwandelt die herkömmliche Fertigung in einen hochflexiblen, kosteneffizienten und zuverlässigen Betrieb und setzt weltweit neue Maßstäbe für die Branche.

Gesundheitswesen

Im Gesundheitswesen geht die KI-Inference at the Edge auf wesentliche Bedenken wie Datenschutz und Sicherheit ein, indem sie strenge Datenverschlüsselungs- und Anonymisierungstechniken verwendet und so sicherstellt, dass Patientendaten vertraulich bleiben. Die Kompatibilität von Edge KI mit bestehenden IT-Systemen im Gesundheitswesen, die durch interoperable Standards und APIs erreicht wird, ermöglicht eine nahtlose Integration in bestehende Infrastrukturen. Insgesamt verbessert Edge KI die Gesundheitsversorgung, indem es sofortige, fundierte medizinische Entscheidungen auf der Grundlage von Echtzeitdaten ermöglicht.

Gcore hat sich mit einem Gesundheitsdienstleister zusammengeschlossen, der sensible medizinische Daten verarbeiten muss, um eine KI-basierte Zweitmeinung zu erhalten, insbesondere bei onkologischen Fällen. Aufgrund des Patientengeheimnisses konnten die Daten das Land nicht verlassen. Daher war die beste Option des Gesundheitsdienstleisters, um die Einhaltung der Vorschriften zu gewährleisten und gleichzeitig eine hohe Leistung beizubehalten, die Implementierung einer Edge-Lösung, die mit ihrem internen System und dem KI-Modell verbunden ist. Mit mehr als 180 strategischen Standorten weltweit und der bewährten Einhaltung der DSGVO- und ISO 27001-Standards konnten wir dem Gesundheitsdienstleister den benötigten KI-Vorteil bieten.

Das Ergebnis:

  • Echtzeitverarbeitung und reduzierte Latenzzeit: Für den Gesundheitsdienstleister zählt jede Sekunde, insbesondere bei kritischen onkologischen Fällen. Durch die Bereitstellung eines großen Modells am Edge, in der Nähe des Hauptsitzes des Krankenhauses, ermöglichten wir schnelle Einblicke und Reaktionen.
  • Verbesserte Sicherheit und Datenschutz: Die Wahrung der Integrität und Vertraulichkeit von Patientendaten war in diesem Fall nicht verhandelbar. Durch die lokale Verarbeitung der Daten konnten wir die Einhaltung strenger Datenschutzstandards wie die DSGVO sicherstellen, ohne die Leistung zu beeinträchtigen.
  • Effizienz und Kostenreduzierung: Wir haben die Bandbreitennutzung minimiert, indem wir die Notwendigkeit ständiger Datenübertragungen zu entfernten Servern reduziert haben, was für einen schnellen und zuverlässigen Datenumschlag entscheidend ist, und gleichzeitig die damit verbundenen Kosten gesenkt.

Einzelhandel

Im Einzelhandel sorgt KI für ein präzises Bestandsmanagement und personalisiert das Kundenerlebnis in einer Vielzahl von Bereichen. Durch die Echtzeitanalyse von Daten aus Sensoren und Kameras sagt Edge KI den Nachschubbedarf genau voraus und stellt sicher, dass die Regale immer mit den richtigen Produkten gefüllt sind. Diese Technologie unterstützt auch intelligente Kassensysteme, die den Einkaufsprozess rationalisieren, indem sie das manuelle Scannen überflüssig machen und so die Wartezeiten verkürzen und die Kundenzufriedenheit erhöhen. Handels-Chatbots und KI-Kundenservice bieten diese Vorteile im E-Commerce.

Inference am Edge ermöglicht den Einsatz von Computer Vision, um Kundenverhalten und -präferenzen in Echtzeit zu verstehen. So können Händler ihre Ladengestaltung und Produktplatzierungen effektiv optimieren. Diese Erkenntnisse tragen dazu bei, eine Einkaufsumgebung zu schaffen, die zu Käufen anregt und die Kundenreise insgesamt verbessert. Händler, die KI nutzen, können sich dynamisch an Verbrauchertrends und -nachfragen anpassen und so flexibler und reaktionsschneller agieren.

Fazit

KI Inferencing at the Edge bietet Unternehmen verschiedener Branchen die Möglichkeit, Daten in Echtzeit und direkt an der Quelle zu verarbeiten. Diese Fähigkeit reduziert die Latenzzeit und verbessert gleichzeitig die betriebliche Effizienz, die Sicherheit und die Kundenzufriedenheit, so dass Unternehmen einen neuen Standard bei der Nutzung von Technologie setzen können, um einen Wettbewerbsvorteil zu erzielen.

Gcore steht an der Spitze dieser technologischen Entwicklung und ermöglicht die KI-Inference am Edge eines globalen Netzwerks, das darauf ausgelegt ist, die Latenz zu minimieren und die Leistung zu maximieren. Mit fortschrittlichen L40S GPU-basierten Rechenressourcen und einer umfassenden Liste von Open-Source-Modellen bietet Gcore Edge KI eine robuste, hochmoderne Plattform für den Einsatz großer KI-Modelle.

Entdecken Sie die Gcore KI GPU Cloud-Infrastruktur

]]>
Vergleichsanalyse von NVIDIA A100 vs. H100 Vs. L40S vs. H200 https://gcore.com/de/blog/nvidia-gpu-comparison/ Fri, 01 Dec 2023 09:15:49 +0000 https://gcore.com/blog/nvidia-gpu-comparison/ NVIDIA hat kürzlich die Veröffentlichung der NVIDIA HGX™ H200 GPU für 2024 angekündigt – eine neue, leistungsstarke Ergänzung seiner führenden KI-Computing-Plattform. Gcore ist begeistert über die Ankündigung des H200-Grafikprozessors, da wir die A100- und H100-Grafikprozessoren zur Stärkung unserer KI GPU-Cloud-Infrastruktur verwenden und uns darauf freuen, die L40S-Grafikprozessoren im ersten Quartal 2024 zu unseren KI-GPU-Konfigurationen hinzuzufügen. Wir denken, dass dies der richtige Zeitpunkt ist, um eine vergleichende Analyse der NVIDIA-GPUs durchzuführen: die aktuelle Generation A100 und H100, die neue Generation L40S und die kommende Generation H200.

Vergleich von A100 vs. H100 vs. L40S vs. H200

Die NVIDIA A100, H100, L40S und H200 gehören zu den fortschrittlichsten und leistungsstärksten GPUs im Sortiment des Unternehmens. Sie wurden speziell für professionelle Anwendungen, Unternehmen und Rechenzentren entwickelt und verfügen über Architekturen und Technologien, die für Rechenaufgaben, KI und Datenverarbeitung optimiert sind. Schauen wir uns an, wie sie in Bezug auf die wichtigsten technischen Daten im Vergleich zueinander abschneiden.

SpezifikationA100H100L40SH200
ArchitekturAmpereHopperAda LovelaceHopper
Erscheinungsjahr2020202220232024
FP649,7 TFLOPS34 TFLOPSKeine Daten verfügbar34 TFLOPS
FP64 Tensor Core19,5 TFLOPS67 TFLOPSKeine Daten verfügbar67 TFLOPS
FP3219,5 TFLOPS67 TFLOPS91,6 TFLOPS67 TFLOPS
TF32 Tensor Core312 TFLOPS989 TFLOPS183 | 366* TFLOPS989 TFLOPS*
BFLOAT16 Tensor Core624 TFLOPS1.979 TFLOPS362,05 | 733* TFLOPS1.979 TFLOPS*
FP16 Tensor Core624 TFLOPS1.979 TFLOPS362,05 | 733* TFLOPS1.979 TFLOPS*
FP8 Tensor CoreNicht anwendbar3.958 TFLOPS733 | 1.466* TFLOPS3.958 TFLOPS*
INT8 Tensor Core1248 TOPS3.958 TOPS733 | 1.466* TFLOPS3.958 TFLOPS*
INT4 Tensor CoreDaten nicht verfügbarDaten nicht verfügbar733 | 1.466* TFLOPSDaten nicht verfügbar
GPU-Speicher80 GB HBM2e80 GB48 GB GDDR6 mit ECC141 GB HBM3e
GPU-Speicherbandbreite2.039 Gbps3,35 Tbps864 Gbps4,8 Tbps
DekodiererNicht anwendbar7 NVDEC 7 JPEGNicht anwendbar7 NVDEC 7 JPEG
Max. Thermal Design Power (TDP) (maximal abgegebene Wärmeleistung eines Prozessors)400 WBis zu 700 W (konfigurierbar)350 WBis zu 700 W (konfigurierbar)
Multi-Instance GPUsBis zu 7 MIGs @ 10 GBBis zu jeweils 7 MIGs @ 10 GBNeinBis zu 7 MIGs mit je 16,5 GB
FormfaktorSXMSXM4,4″ (H) x 10,5″ (L), DoppelsteckplatzSXM**
InterconnectNVLink: 600 GB/s PCIe Gen4: 64 GB/sNVLink: 900 GB/s PCIe Gen5: 128 GB/sPCIe Gen4 x16: 64 GB/s bidirektionalNVIDIA NVLink®: 900 GB/s PCIe Gen5: 128 GB/s
ServeroptionenNVIDIA HGX™ A100 Partner und NVIDIA-Certified Systems mit 4, 8 oder 16 GPUs NVIDIA DGX™ A100 mit 8 GPUsNVIDIA HGX H100 Partner und NVIDIA-Certified Systems™ mit 4 oder 8 GPUs NVIDIA DGX H100 mit 8 GPUsKeine Daten verfügbarNVIDIA HGX™ H200 Partner und NVIDIA-Certified Systems™ mit 4 oder 8 GPUs
NVIDIA AI EnterpriseEnthaltenAdd-onKeine Daten verfügbarAdd-on
CUDA® Cores6.91216.89618.176Keine Daten verfügbar

* mit Sparcity.
** Vorläufige Spezifikation. Änderungen sind vorbehalten.
Quelle: https://resources.nvidia.com/l/en-us-gpu

Basierend auf dem obigen Vergleich erwarten wir, dass die H200 die vorherige und aktuelle Generation der NVIDIA-GPUs für Rechenzentren in allen Anwendungsbereichen übertreffen wird. Die aktuelle Generation, die H100, ist der H200 sehr ähnlich und bietet nahezu die gleiche Leistung bei Multi-Präzisionsberechnungen. Die H200 wird Verbesserungen bieten. Die H100 bleibt jedoch eine Option erster Wahl. Der A100 ist im Vergleich zu seinen Nachfolgern der leistungsschwächste Grafikprozessor, bietet aber dennoch eine solide Leistung für bestimmte Aufgaben.

Der L40S unterscheidet sich vom A100 und vom H100 dadurch, dass er RT-Kerne der dritten Generation (142) mit einer RT-Kernleistung von 212 TFLOPS und 568 Tensor-Kerne der vierten Generation enthält. Allerdings liegen uns noch keine ausreichenden Informationen über diese Parameter für den H200 vor. Es bleibt also abzuwarten, wie sich der L40S und der H200 im Vergleich zueinander schlagen werden.

NVIDIA-GPUs im Überblick

Schauen wir uns die einzelnen GPUs nacheinander an, um mehr über ihre Funktionen, ihre Leistung und die Anwendungsbereiche zu erfahren, in denen sie glänzen.

NVIDIA A100

Der NVIDIA A100-Grafikprozessor war der erste Grafikprozessor mit der Ampere-Architektur im Jahr 2020. Vor der Veröffentlichung des H100 im Jahr 2022 war der A100 eine führende GPU-Plattform. Dank verbesserter Tensor Cores für die künstliche Intelligenz, einer höheren Anzahl von CUDA-Kernen für die parallele Verarbeitung, verbessertem Speicher und der schnellsten Speicherbandbreite aller Zeiten (2 Tbps) bietet er einen erheblichen Leistungssprung im Vergleich zu seinen Vorgängern. Er unterstützt Multi-Instance GPU (MIG), wodurch eine einzelne A100 GPU in kleinere, unabhängige GPUs partitioniert werden kann, um die Ressourcenzuweisung und Effizienz in Cloud- und Rechenzentrumsumgebungen zu maximieren.

Obwohl der A100-Grafikprozessor von neueren Modellen in seiner Leistung übertroffen wird, ist er aufgrund seiner leistungsstarken Tensor Cores und seines hohen Rechendurchsatzes nach wie vor eine gute Wahl für das Traininieren komplexer neuronaler Netze im Rahmen von Deep Learning- und KI-Lernaufgaben. Er eignet sich auch hervorragend für KI-Inferenzaufgaben wie Spracherkennung, Bildklassifizierung, Empfehlungssysteme, Datenanalyse und Big Data-Verarbeitung, wissenschaftliche Berechnungen und Simulationen sowie für Aufgaben im High-Performance-Computing (HPC)-Bereich wie Genomsequenzierung und Arzneimittelentwicklung.

NVIDIA H100

Der NVIDIA H100-Grafikprozessor kann die anspruchsvollsten KI-Workloads und umfangreiche Datenverarbeitungsaufgaben mühelos bewältigen. Der H100 enthält Tensor Cores der nächsten Generation, mit denen die KI-Trainings- und Inferenzgeschwindigkeiten drastisch erhöht werden. Er unterstützt auch Berechnungen mit doppelter Genauigkeit (FP64), einfacher Genauigkeit (FP32), halber Genauigkeit (FP16) und ganzzahligen (INT8) Aufgaben.

Der H100 bietet eine erhebliche Leistungssteigerung gegenüber dem A100, einschließlich der folgenden Vorteile:

  • Sechsmal schneller – bis zu vier Petaflops für FP8
  • 50 % mehr Arbeitsspeicher – verwendet HBM3-Hochbandbreitenspeicher mit bis zu 3 Tbps mit externer Konnektivität, die fast 5 Tbps erreicht
  • Bis zu sechsmal schnelleres Training von Modelltransformatoren dank der neuen Transformer Engine

Während der H100 ähnliche Anwendungsfälle und Leistungsmerkmale wie der A100 abdeckt, kann der H100-Grafikprozessor massive KI-Modelle verarbeiten, einschließlich solcher, die Transformator-Architekturen und komplexere wissenschaftliche Simulationen verwenden. Der H100-Grafikprozessor ist auch eine hervorragende Wahl für Echtzeit- und reaktionsschnelle KI-Anwendungen, wie z.B. fortschrittliche KI für Konversationen und Echtzeit-Übersetzungen.

NVIDIA L40S

Der L40S ist einer der leistungsstärksten NVIDIA-Grafikprozessoren, der im vierten Quartal 2023 auf den Markt kommt (und sofort in die Infrastruktur von Gcore integriert wird). Er ist für die nächste Generation von Rechenzentrums-Workloads ausgelegt: generative KI, Large Language Model (LLM)-Inferenz und -Training, 3D-Grafik, Rendering, Video und wissenschaftliche Simulationen.

Der NVIDIA L40S bietet eine bis zu 5-mal höhere Inferenzleistung und eine bis zu 2-mal höhere Echtzeit-Raytracing (RT)-Leistung im Vergleich zu Grafikprozessoren der vorherigen Generation, wie dem A100 und H100. Der 48 GB große GDDR6-Speicher mit ECC (Error Correcting Code) spielt eine entscheidende Rolle bei der Wahrung der Datenintegrität in Hochleistungs-Computing-Umgebungen. Außerdem ist er mit über 18.000 CUDA-Kernen ausgestattet – den parallelen Prozessoren, die für die Bewältigung komplexer Rechenaufgaben unerlässlich sind.

NVIDIA H200

Die NVIDIA H200 ist das neueste Mitglied der NVIDIA-GPU-Reihe und soll im zweiten Quartal 2024 auf den Markt kommen. Sie ist die erste GPU, die 141 GB HBM3e-Speicher mit 4,8 Tbps bietet – fast doppelt so viel Kapazität wie die NVIDIA H100 Tensor Core GPU mit 1,4-mal mehr Speicherbandbreite. Letzteres ist für die Hochleistungsinformatik von Bedeutung und führt zu einer bis zu 110-mal schnelleren Zeit bis zur Ergebnisausgabe im Vergleich zu CPUs. Die Inferenzgeschwindigkeit ist doppelt so hoch wie die der H100-GPUs, wenn sie Llama2 70B-Inferenz verarbeiten.

Die H200 wird eine entscheidende Rolle bei der künstlichen Intelligenz der Dinge (AIoT) für Edge-Computing- und IoT-Anwendungen spielen. Sie können auch die höchste verfügbare GPU-Leistungdes H200 bei allen Anwendungs-Workloads erwarten, einschließlich LLP-Training und Inferenz für die größten Modelle mit mehr als 175 Milliarden Parametern, sowie bei generativen KI- und HPC-Anwendungen.

Fazit

Basierend auf den ersten Spezifikationen und vorläufigen Leistungs-Benchmarks scheint der NVIDIA HGX™ H200 ein deutlicher Fortschritt gegenüber den A100- und H100-GPUs in Bezug auf Gesamtleistung, Energieeinsparungen und TCO (Total Cost of Ownership) zu sein. Wir hoffen, dass Ihnen dieser Vergleichsleitfaden bei der Auswahl des richtigen NVIDIA Grafikprozessors für Rechenzentren hilft, der sich ideal für die Lösung Ihrer geschäftlichen Herausforderungen in den Bereichen Deep Learning und künstliche Intelligenz, HPC, Grafik oder Virtualisierung im Rechenzentrum oder an der Peripherie eignet.

Gcore bietet verschiedene KI GPU-Konfigurationen für Bare-Metal-Server und virtuelle Maschinen an, die auf A100- und H100-GPUs basieren. Darüber hinaus ermöglicht unsere Managed Kubernetes-Plattform die Verwendung von Bare-Metal-Servern und virtuellen Maschinen mit A100- und H100-GPUs als Worker Nodes. In Kürze werden wir weitere KI GPU-Konfigurationen auf der Basis der neuesten L40S-GPUs hinzufügen!

KI GPU nutzen

]]>
Wie man die Konnektivität zu unseren Servern mit Looking Glass überprüft https://gcore.com/de/blog/how-to-check-connectivity-to-our-servers-with-looking-glass/ Wed, 01 Nov 2023 13:44:13 +0000 https://gcore.com/blog/how-to-check-connectivity-to-our-servers-with-looking-glass/ Bevor Sie einen virtuellen oder dedizierten Server kaufen, wäre es nicht verkehrt zu prüfen, wie er funktioniert. Allerdings bieten nicht alle Hosting-Anbieter eine Testperiode an.

Wir haben auch keinen Testzeitraum für das Hosting. Es gibt jedoch ein Tool, mit dem Sie die Konnektivität prüfen und den besten Standort für Sie auswählen können, — Looking Glass.

Wir erzählen Ihnen, was es ist und wie Sie es verwenden können.

Was ist Looking Glass?

Looking Glass ist ein Tool zur Überprüfung des Routings. Es wird verwendet, um die Konnektivität des Servers vor dem Kauf zu überprüfen und um Störungen im Netzwerk zu suchen.

Welche Möglichkeiten der Dienst zu bieten hat:

  • Die Konnektivität zu verschiedenen Hosts und deren Ansprechzeiten überprüfen.
  • Den Weg der Pakete vom Router zur Ressource verfolgen.
  • Sich detaillierte BGP-Routen zu jeder IPv4- oder IPv6-Adresse anschauen.
  • Einen BGP-Map für jede IP-Adresse anzeigen lassen.

Wie man mit Looking Glass arbeitet

Der Dienst hat eine einfache Benutzeroberfläche.

Man muss nur die Parameter und den Befehl angeben:

1. Wählen Sie den Standort aus, mit dem Sie die Konnektivität prüfen möchten. Die Liste enthält alle verfügbaren Standorte in unserem Hosting-Dienst.

2. Wählen Sie das Protokoll aus: IPv4 oder IPv6.

3. Geben Sie die IP-Adresse an, mit der kommuniziert werden soll.

4. Wählen Sie den gewünschten Befehl.

Schauen wir uns die einzelnen Befehle im Detail an.

Ping

Mit diesem Befehl können Sie überprüfen, wie lange es dauert, bis ein Paket von der angegebenen IP-Adresse zum Knoten übertragen wird.

Der Befehl verwendet das ICMP-Protokoll. Dies funktioniert auf folgende Weise:

  1. Der Router sendet ein Paket von der IP-Adresse an den Knoten.
  2. Der Knoten sendet es zurück.

Mit diesem Befehl können Sie nicht nur die Geschwindigkeit des Pakets ermitteln, sondern auch die Verfügbarkeit des Knotens als Ganzes überprüfen.

Schauen wir uns an, wie der Befehl in der Praxis funktioniert. Für den Test werden wir eine freie öffentliche Adresse 8.8.8.8. verwenden. Wie wählen den Befehl ping — und kommen zu dem folgenden Ergebnis:

PING 8.8.8.8 (8.8.8.8) 56(84) bytes of data.
64 bytes from 8.8.8.8: icmp_seq=1 ttl=119 time=0.325 ms
64 bytes from 8.8.8.8: icmp_seq=2 ttl=119 time=0.311 ms
64 bytes from 8.8.8.8: icmp_seq=3 ttl=119 time=0.315 ms
64 bytes from 8.8.8.8: icmp_seq=4 ttl=119 time=0.301 ms
64 bytes from 8.8.8.8: icmp_seq=5 ttl=119 time=0.309 ms
--- 8.8.8.8 ping statistics ---
5 packets transmitted, 5 received, 0% packet loss, time 3999ms
rtt min/avg/max/mdev = 0.301/0.312/0.325/0.013 ms

Hier sehen wir, dass 5 Pakete übertragen worden sind. Die Zeit, die für die Übertragung der einzelnen Pakete benötigt wurde, ist neben jedem Paket angegeben. Unten sehen Sie, dass alle 5 Pakete zugestellt wurden, kein Paket verloren ging und die Gesamtzeit für die Übertragung 3.999 ms betrug.

Anhand dieser Werte können Sie beurteilen, ob Sie mit der Geschwindigkeit zufrieden sind und der ausgewählte Host für Ihre Aufgabe geeignet ist.

Traceroute

Mit diesem Befehl können Sie alle Zwischenrouter auf dem Weg eines Pakets zum Zielhost sehen.

Jedes Paket hat eine TTL-Eigenschaft (time to live). Sie zeigt, wie lange ein Paket im Netz bleiben kann. Die TTL kann entweder die Anzahl der Sprünge (aus dem Englischen hop — ‘Sprung’)) von einem Router zum anderen oder die Zeit in Millisekunden sein.

Jeder Router, den ein Paket durchläuft, reduziert den TTL-Wert um eins. Erreicht der Wert Null, werden die Daten verworfen, und der Absender erhält die Antwort time exceeded (Zeit überschritten).

Traceroute verwendet dieses Merkmal, um die Anzahl der Zwischenhosts anzugeben:

  1. Der Befehl setzt das erste Paket auf TTL = 1. Der Router, von dem time exceeded ausgeht, wird als der erste Zwischenknoten auf dem Pfad definiert.
  2. Das nächste Paket erhält den TTL-Wert = 2. Dann Pakete mit TTL = 3, 4, 5 usw., bis eines der Pakete sein Ziel erreicht.
  3. Auf diese Weise können wir die Anzahl der Zwischenrouter und Informationen über sie herausfinden.

Versuchen wir nun, den Befehl mit der gleichen Adresse anzuwenden. Das Ergebnis ist wie folgt:

traceroute to 8.8.8.8 (8.8.8.8), 15 hops max, 60 byte packets
1 vrrp.gcore.lu (92.38.169.130) [AS199524] 0.418 ms
2 92.38.168.2 (92.38.168.2) [AS199524] 0.378 ms
3 10.255.21.177 (10.255.21.177) [*] 0.366 ms
4 core1-0-0-8.lga.net.google.com (198.32.118.39) [AS10026] 0.848 ms
5 108.170.248.33 (108.170.248.33) [AS15169] 2.483 ms
6 172.253.70.17 (172.253.70.17) [AS15169] 1.419 ms
7 dns.google (8.8.8.8) [AS15169] 1.347 ms

Was wir hier sehen:

  • Ein Paket durchläuft maximal 15 Router.
  • Die Adresse eines jeden Routers und seine Zugehörigkeit zu einem bestimmten Autonomen System (AS).
  • Die Ansprechzeit der einzelnen Router in Millisekunden.
  • Jeder Zwischenhost hat eine Ansprechzeit, was bedeutet, dass sie alle verfügbar sind und ordnungsgemäß funktionieren.

Show route for all

Dieser Befehl zeigt die besten BGP-Routen zum Ziel an.

BGP ist ein dynamisches Routing-Protokoll im Internet. Es verbindet autonome Systeme (AS) — Routersysteme und IP-Netze, die eine gemeinsame Routing-Politik im Internet verfolgen.

Mit BGP tauschen die AS Informationen über Netze und deren Verfügbarkeit aus. Auf der Grundlage dieser Daten wird die beste Route für die Pakete ermittelt.

Dies zeigt der Befehl show route for all an. Das Ergebnis sieht dann etwa so aus:

8.8.8.0/24 via 92.38.169.129 on eth0 [ipv4_1 2021-07-27 from 92.38.168.64] * (100/?) [AS15169i]
Type: BGP unicast univ
BGP.origin: IGP
BGP.as_path: 15169
BGP.next_hop: 92.38.168.64
BGP.med: 0
BGP.local_pref: 90
BGP.community: (65000,1162) (65000,1728) (65000,1903) (65000,4212) (65101,2087) (65102,2000) (65103,840) (65104,19)
BGP.large_community: (6695, 1000, 1)
 via 92.38.169.129 on eth0 [ipv4_2 2021-07-19 from 92.38.168.65] (100/?) [AS15169i]
Type: BGP unicast univ
BGP.origin: IGP
BGP.as_path: 15169
BGP.next_hop: 92.38.168.65
BGP.med: 0
BGP.local_pref: 90
BGP.community: (24115,15169) (24115,65012) (65000,1105) (65000,1728) (65000,1903) (65000,4212)
BGP.large_community: (24115,1000,1) (24115,1001,1) (24115,1002,1) (24115,1003,1) (24115,=1004,15169)

Show route for (bgpmap)

Der letzte in unserem Looking Glass verfügbare Befehl ist show route for (bgpmap). Er zeigt eine grafische Darstellung der BGP-Route, aus der hervorgeht, welche autonomen Systeme die Daten vom Host zur angegebenen IP-Adresse durchqueren müssen.

Das Ergebnis des Befehls sieht wie folgt aus:

Wir haben die gesamte Oberfläche unseres Looking Glass abgedeckt. Wir hoffen, dass es für Sie einfach zu bedienen ist. Und wenn Sie Fragen haben, können Sie sich jederzeit an unsere Manager wenden.

Wählen Sie virtuelle und dedizierte Server mit der besten Konnektivität und verbinden Sie diese mit unserem Hosting-Dienst.

  • Es gibt mehr als 35 Standorte auf verschiedenen Kontinenten.
  • Die Server befinden sich in Tier III-zertifizierten Rechenzentren.
  • Wir unterstützen alle Betriebssysteme.
  • Große Auswahl an Konfigurationen und Aufrüstungsmöglichkeiten.
  • 24/7 technischer Support.

Wählen Sie mit dem benutzerfreundlichen Konfigurator den Server, der perfekt auf Ihre Bedürfnisse zugeschnitten ist. Und Looking Glass hilft Ihnen, einen Standort mit guter Konnektivität zu finden.

Die Konnektivität überprüfen

Ziehen wir Bilanz

  1. Mit Looking Glass können Sie die Konnektivität testen, bevor Sie einen dedizierten oder virtuellen Server in unserem Hosting-Dienst kaufen.
  2. Es ist ein spezieller Dienst, der es Ihnen ermöglicht, die Konnektivität zu verschiedenen Hosts und deren Ansprechzeit zu überprüfen, Paketpfade zum Ziel zu verfolgen, BGP-Routen und BGP-Map anzeigen zu lassen.
  3. Unser Looking Glass hat eine einfache Benutzeroberfläche. Sie müssen den Standort und das Protokoll (IPv4 oder IPv6) auswählen, die IP-Adresse und den gewünschten Befehl angeben — das Ergebnis wird auf dem Bildschirm angezeigt.
  4. Der Dienst kann vier Befehle ausführen: ping, traceroute, show route for all und show route for (bgpmap).
  5. Ping zeigt die Verfügbarkeit eines Hosts und die Zeit an, die für die Zustellung von Paketen benötigt wird.
  6. Traceroute zeigt alle zwischengeschalteten Router an, die die Pakete durchlaufen.
  7. Show route for all zeigt die besten BGP-Routen an, а show route for (bgpmap) zeigt grafisch an, durch welche AS die Anfrage zum Zielnetz geht.
  8. Looking Glass hilft Ihnen, den besten Standort für Sie zu finden. Mieten Sie zuverlässige virtuelle und dedizierte Server mit ausgezeichneter Konnektivität bei Gcore Hosting.

Server wählen

]]>
Entdecken Sie Gcore Basic VM | Ist Gcore Basic VM der richtige Hosting-Service für Sie? https://gcore.com/de/blog/discover-gcore-basic-vm-is-gcore-basic-vm-the-right-hosting-service-for-you/ Fri, 21 Jul 2023 11:41:09 +0000 https://gcore.com/blog/entdecken-sie-gcore-basic-vm-ist-gcore-basic-vm-der-richtige-hosting-service-fur-sie/ Sich im Labyrinth der Hosting-Lösungen zurechtzufinden, kann eine entmutigende Aufgabe sein. Die Beurteilung der Unterschiede und die Entscheidung, welches Produkt am besten zu Ihren Bedürfnissen und Ihrem Budget passt, kann ein anstrengender Prozess sein. Wir bei Gcore verstehen diese Herausforderung und freuen uns, Ihnen diesen Leitfaden zu unserem günstigsten Hosting-Service anbieten zu können: Gcore Basic VM. Zunächst erklären wir, was Gcore Basic VM ist, und dann werden die Vorteile und Funktionen erläutern. Am Ende werden Sie wissen, ob Gcore Basic VM Ihren Hosting-Bedürfnissen entspricht oder ob Sie einen anderen Gcore-Hosting-Service in Erwägung ziehen sollten, um die perfekte Balance zwischen Kosteneffizienz und Funktionalität zu finden.

Was ist die Gcore Basic VM?

Gcore Basic VM ist ein Hosting-Dienst, der die Flexibilität und Skalierbarkeit von virtuellen Servern zu einem außergewöhnlichen Preis bietet. Als Teil der Gcore Cloud-Plattform können Benutzer ihre Basic virtuellen Maschinen in einer Hochleistungsumgebung mit einer robusten Infrastruktur erstellen und verwalten. Gcore Basic bietet eine breite Palette von Funktionen und Werkzeugen, die für Benutzerfreundlichkeit und Ressourcenoptimierung sorgen. Es stehen umfangreiche Konfigurationsoptionen und Standorte zur Verfügung, mit denen Sie Ihre virtuellen Server an Ihre spezifischen Anwendungs- und Arbeitslastanforderungen anpassen können – und das alles bei minimalen Kosten.

Gcore Basic VM wurde für eine einfache Nutzung entwickelt. Die Erstellung und Konfiguration virtueller Server ist mit unserer benutzerfreundlichen Weboberfläche, die intuitive Tools für Ressourcenmanagement, Netzwerkkonfiguration, Überwachung und Skalierung bietet, ganz einfach. Selbst wenn Sie noch keine Erfahrung mit Cloud Computing haben, sind wir zuversichtlich, dass Sie sich schnell mit Gcore Basic vertraut machen können.

Funktionen von Gcore Basic VM

Werfen wir einen genaueren Blick auf einige der technischen Merkmale von Gcore Basic, um die Qualität und den Wert dieses Dienstes zu verstehen.

Hochqualitatives Netzwerk

Gcore bietet eine zuverlässige und stabile Netzwerkinfrastruktur, die die hohe Verfügbarkeit und Leistung Ihrer Basic virtuellen Maschine gewährleistet. Ein qualitativ hochwertiges Netz hat mehrere wichtige Vorteile:

  • Schnelle Datenübertragungsgeschwindigkeit. Gcore verfügt über eine leistungsfähige Infrastruktur mit schnellen Netzwerkverbindungen. So können Sie hohe Datenübertragungsgeschwindigkeiten zwischen Ihrer virtuellen Maschine und anderen Cloud-Ressourcen oder externen Netzwerken erreichen. Schnelle Datenübertragungsgeschwindigkeiten sind für eine effiziente Kommunikation, das Hoch- und Herunterladen von Dateien und den Zugriff auf Datenbanken unerlässlich.
  • Zuverlässigkeit und Fehlertoleranz. Das Netzwerk in Gcore Basic VM ist mit Blick auf hohe Zuverlässigkeit und Fehlertoleranz aufgebaut. Mehrere Netzwerkverbindungen, redundante Routen und Auto-Switching-Systeme sorgen für einen reibungslosen Betrieb Ihrer VM, selbst wenn eine der Netzwerkkomponenten ausfällt. Redundante Routen sind alternative Datenpfade, die im Falle eines Ausfalls oder eines Problems mit der Hauptroute genutzt werden können.
  • Niedrige Latenz (Lag). Die Netzwerklatenz kann die Leistung Ihrer Anwendungen und Dienste erheblich beeinträchtigen. Gcore Basic VM bietet eine Datenübertragung mit geringer Latenz durch eine optimierte Netzwerkinfrastruktur und den Einsatz fortschrittlicher Technologien. Dies ist besonders wichtig für reaktive Anwendungen, die nahezu sofortige Reaktionen erfordern.

Fortschrittliche Netzwerkfunktionen

Gcore Basic VM bietet eine Reihe fortschrittlicher Netzwerkfunktionen, die Sie bei der Verwaltung und Konfiguration der Netzwerkinfrastruktur Ihrer virtuellen Maschine unterstützen. Mit diesen Funktionen können Sie die Netzwerkinfrastruktur Ihrer virtuellen Maschine im Hinblick auf Sicherheit, Leistung und Verfügbarkeit verwalten und konfigurieren. Hier finden Sie einige der fortschrittlichen Netzwerkfunktionen von Gcore Basic VM:

  • Virtual Local Area Networks (VLANs). Mit VLANs können Sie virtuelle Netzwerke innerhalb Ihrer virtuellen Maschine erstellen. Das bedeutet, dass Sie den Netzwerkverkehr trennen und die Segmentierung Ihres Netzwerks verwalten können, um Sicherheit und Leistung zu verbessern.
  • Load Balancing. Load Balancing wird normalerweise verwendet, um den Traffic auf mehrere Server oder Anwendungsinstanzen zu verteilen. Dies verbessert die Leistung und Verfügbarkeit Ihrer Anwendung oder Ihres Dienstes, da der Traffic gleichmäßig auf die Ressourcen verteilt wird.
  • Firewall. Gcore Basic VM enthält eine Firewall, mit der Sie Regeln zur Filterung des Traffics konfigurieren und den Zugriff auf Ihre virtuelle Maschine kontrollieren können. Dies trägt zur Sicherheit Ihres Netzwerks bei und verhindert den unbefugten Zugriff auf wichtige Ressourcen. Eine Firewall kann Bedrohungen wie verdächtigen Traffic, DDoS-Angriffe und Port-Scans blockieren, um zu verhindern, dass Ihre virtuelle Maschine gefährdet wird.

Benutzerfreundliches Control Panel

Gcore Basic VM bietet ein benutzerfreundliches Control Panel, mit dem Sie Ihre virtuelle Maschine verwalten und an Ihre Bedürfnisse anpassen können. Sie können eine virtuelle Maschine mit nur einem Klick einschalten, ausschalten oder neu starten. Außerdem können Sie die Ressourcen Ihrer Maschine – einschließlich Arbeitsspeicher, Prozessoren und Festplattenspeicher – ganz einfach skalieren, ein Backup Ihrer virtuellen Maschine erstellen und sie bei Bedarf wiederherstellen. Dies trägt dazu bei, Ihre Daten und Ihr System im Falle einer Störung oder eines unerwarteten Ereignisses zu schützen.

Aktualisierte Hardware

Gcore Basic VM bietet ein außergewöhnliches Preis-Leistungs-Verhältnis bei hoher Leistung durch den Einsatz aktueller und moderner Hardware. Gcore aktualisiert ständig seine Infrastruktur, führt neue Technologien ein und wendet fortschrittliche Lösungen an, um eine hohe Leistung und Effizienz der virtuellen Maschinen zu gewährleisten. Dies sind einige Hardware-Faktoren und Komponenten, die Gcore Basic VM auszeichnen:

  • SSD-Speicher. Gcore Basic VMs sind mit Hochgeschwindigkeits-SSDs (Solid State Drives) ausgestattet. SSD-Speicher bieten einen wesentlich schnelleren Datenzugriff als herkömmliche Festplatten, was zu einem schnelleren Lesen und Schreiben von Daten führt. Das Ergebnis sind minimale Zugriffszeiten, hohe Lese- und Schreibgeschwindigkeiten, Energieeffizienz und verbesserte Zuverlässigkeit.
  • Leistungsstarke Server. Gcore verwendet leistungsstarke Server mit modernen Prozessoren, großen Mengen an RAM und schnellem Speicher. Dies ermöglicht Hochleistungscomputing und Datenverarbeitung für Ihre virtuelle Maschine.

Überwachungssystem

Gcore Basic VM bietet Tools zur Netzwerküberwachung und -verwaltung, mit denen Sie die Leistung und Ressourcennutzung überwachen und mögliche Probleme erkennen können. Sie helfen Ihnen, Ihre Netzinfrastruktur effektiv zu verwalten und geeignete Maßnahmen zur Leistungsoptimierung zu ergreifen. Sie können Informationen zu Parametern wie CPU-Auslastung, Speichernutzung und Netzwerkaktivität anzeigen.

Globale Reichweite

Gcore Basic VM bietet die Möglichkeit, einen geografischen Standort für Ihre virtuelle Maschine auszuwählen. Damit wird festgelegt, wo sich die physischen Server, auf denen Ihre VM läuft, befinden werden. Derzeit gibt es sechs Standorte auf vier Kontinenten (Nordamerika, Südamerika, Asien, Europa). Zwei weitere werden in Kürze folgen (Santa Clara und Singapur), und wir planen weitere Expansionen.

Verbindung zu Gcore Cloud und Edge

Mit Gcore Basic VM können Sie sich mit anderen Cloud- und Edge-Netzwerkdiensten verbinden und diese integrieren, um die Funktionalität Ihrer virtuellen Maschine zu erweitern. Dies bietet den Vorteil, dass Sie Ihr gesamtes Projekt an einem Ort verwalten können. Dies sind einige Möglichkeiten, andere Dienste zu verbinden:

  • Integration mit Container-Plattformen. Wenn Sie mit containerisierten Anwendungen arbeiten, können Sie Ihre virtuelle Maschine mit Container-Management-Plattformen wie Kubernetes oder Docker integrieren. So können Sie Container in Ihrer virtuellen Maschine bereitstellen und verwalten und die Funktionalität und Fähigkeiten Ihrer Anwendung erweitern.
  • Zusätzliche Netzwerkverbindungen. Gcore bietet auch die Möglichkeit, zusätzliche Netzwerkverbindungen, wie IP-Tunnel oder VPNs (virtuelle private Netzwerke), aufzubauen, um mit anderen Cloud- oder Netzwerkdiensten zu kommunizieren. So können Sie eine sichere und zuverlässige Datenverbindung zwischen Ihrer virtuellen Maschine und anderen Diensten herstellen.

Was, wenn Gcore Basic nicht das Richtige für Sie ist?

Während Gcore Basic VM für viele eine effektive und erschwingliche Hosting-Option ist, übersteigen Ihre Bedürfnisse vielleicht das, was Gcore Basic VM bieten kann. In diesem Fall schlagen wir vor, eine unserer fortschrittlicheren Hosting-Optionen zu wählen: virtuelles Hosting oder einen dedizierten Server.

Wenn Sie mehr über diese Optionen erfahren möchten, lesen Sie unseren umfassenden Artikel über die Anwendungsfälle, für die ein dedizierter Server am besten geeignet ist, oder erfahren Sie mehr darüber, warum die Preise für virtuelle Server so stark variieren.

Fazit

Gcore Basic VM ist ein preisgünstiger und robuster Hosting-Service. Er bietet ein hochwertiges Netzwerk, fortschrittliche Netzwerkfunktionen, ein benutzerfreundliches Control Panel, aktualisierte Hardware, einzigartige Überwachungssysteme, globale Reichweite und Cloud-/Edge-Integration. Wenn Sie einen flexiblen, skalierbaren und erschwinglichen Hosting-Service suchen, könnte Gcore Basic VM die richtige Wahl für Sie sein.

Wenn Sie sich nicht sicher sind, ob Gcore Basic VM das Richtige für Sie ist, wenden Sie sich an unser Supportteam. Wir helfen Ihnen gerne dabei, die Gcore-Hosting-Lösung zu finden, die perfekt zu Ihren Anforderungen passt.

]]>