Sich in einem immer komplexeren Netz von internationalen Vorschriften zurechtzufinden, kann überfordernd sein. Deshalb werden wir in diesem Artikel die Gesetzgebung einiger führender KI-Hubs auf allen Kontinenten aufschlüsseln und Ihnen genau die Informationen zur Verfügung stellen, die Ihr Unternehmen benötigt, um KI optimal zu nutzen – sicher, legal und ethisch vertretbar.
Falls Sie unsere früheren Blogs verpasst haben, in denen wir die KI-Vorschriften nach Regionen aufgeschlüsselt haben, lesen Sie sie hier: Nordamerika, Lateinamerika, Europa, APAC, Naher Osten.
Um die Zusammenfassung zu lesen, gehen Sie bitte zur Übersichtstabelle.
Auch wenn die Vorschriften je nach Standort variieren, haben sich 2024 weltweit mehrere übergreifende Trends herauskristallisiert. Dazu zählen eine Fokussierung auf Datenlokalisierung, risikoabhängige Regulierung und eine Priorisierung des Datenschutzes. Sie sind zu allgemein anerkannten Leitlinien geworden. Das gemeinsame Ziel aller Länder ist es, Innovationen zu fördern und gleichzeitig die Verbraucher zu schützen – auch wenn die einzelnen Regionen diese Ziele auf unterschiedliche Weise zu erreichen versuchen.
Viele Länder folgen dem Beispiel der EU, deren KI-Gesetz ein mehrstufiges Regulierungsmodell je nach potenziellem Risikograd vorsieht. Bei diesem System gelten für jede Risikostufe unterschiedliche Anforderungen: Für Hochrisikoanwendungen, die entweder die öffentliche Sicherheit oder Bürgerrechte betreffen, gilt eine andere Sicherheitsstufe als für allgemeine KI-Anwendungen, bei denen die Risiken weniger hoch eingestuft werden.
Europa hat einige der strengsten KI-Vorschriften der Welt mit Schwerpunkt Datenschutz gemäß der DSGVO sowie dem neuen risikoabhängigen KI-Gesetz. Dieser Ansatz beruht vor allem darauf, dass die EU den Schwerpunkt auf Verbraucherrechte legt und dafür sorgt, dass die Sicherheit der Nutzerdaten durch die digitale Technologie gewährleistet wird. Das vorgeschlagene KI-Gesetz der EU, über das noch verhandelt wird und das bis 2025 verabschiedet sein soll, stuft KI-Anwendungen nach den Risikoklassen „inakzeptables Risiko“, „hohes Risiko“, „begrenztes Risiko“ und „niedriges Risiko“ ein. Risikoreiche KI-Tools, wie sie bei biometrischer Identifizierung oder Finanzentscheidungen eingesetzt werden, müssen strenge Standards in Bezug auf Datenverwaltung, Transparenz und menschliche Aufsicht erfüllen.
Einige EU-Länder haben zusätzliche Standards zum EU-Rahmen eingeführt, insbesondere für mehr Datenschutz und Kontrolle. Der deutsche DSK-Leitfaden zum Beispiel konzentriert sich auf die Rechenschaftspflicht großer Sprachmodelle (LLM) und fordert mehr Transparenz, menschliche Kontrolle und die Zustimmung zur Datennutzung.
Unternehmen, die KI in Europa einsetzen wollen, müssen sowohl die einheitlichen Anforderungen des KI-Gesetzes als auch die mitgliedsspezifischen Vorschriften berücksichtigen, die eine differenzierte und strenge Compliance-Landschaft schaffen.
Die Vorschriften für künstliche Intelligenz in Nordamerika sind weit weniger einheitlich als die in Europa. Die USA und Kanada sind noch dabei, ihre jeweiligen KI-Rahmenregelungen auszuarbeiten, wobei der derzeitige Ansatz der USA weniger streng und zugleich innovationsfreundlicher ist, während Kanada eine zentralisierte Steuerung bevorzugt.
Die Vereinigten Staaten arbeiten mit einem Hybridmodell aus bundesstaatlichen Richtlinien, wie dem Blueprint for an AI Bill of Rights, sowie einzelstaatlichen Gesetzen, wie dem California Consumer Privacy Act (CCPA) und dem Virginia Consumer Data Protection Act (VCDPA), die dazu dienen, einige der strengeren Datenschutzvorschriften durchzusetzen. Die zweistufige Vorgehensweise ähnelt dem in der EU, wo es sowohl Vorschriften auf EU-Ebene als auch auf Länderebene gibt.
Der grundsätzlich liberale Ansatz der USA entspricht dem dortigen Verständnis der freien Marktwirtschaft und räumt Innovation und Wachstum den Vorrang vor strengen Sicherheitsmaßnahmen ein. Doch nicht alle Staaten machen sich einen solch freizügigen Umgang zu eigen. Die Divergenz zwischen strengen einzelstaatlichen Gesetzen und eher lockeren Bundesrichtlinien kann zu einer fragmentierten Regulierungslandschaft führen, die für Unternehmen nur sehr schwer zu durchschauen ist.
Die APAC-Region entwickelt sich schnell zu einem globalen Spitzenreiter in Sachen KI-Innovation, deren wichtigsten Märkte das technologische Wachstum in verschiedenen Sektoren maßgeblich vorantreiben. Die Regierungen in der Region haben darauf mit der Schaffung von Rahmenbedingungen reagiert, die den verantwortungsvollen Einsatz von KI und die Datensouveränität in den Vordergrund stellen. Indiens künftiges Gesetz zum Schutz digitaler personenbezogener Daten (Digital Personal Data Protection Bill, DPDPB), Singapurs Modellrahmen für KI-Governance (Model AI Governance Framework) und Südkoreas Gesetz zur Förderung der KI-Industrie (AI Industry Promotion Act) werfen ein Schlaglicht auf die regulatorische Vielfalt in der Region und unterstreichen gleichzeitig die gemeinsame Forderung nach Transparenz und Datenlokalisierung.
Es gibt keinen einheitlichen Ansatz für die Regulierung von KI in der APAC-Region. Länder wie China setzen beispielsweise einige der weltweit strengsten Gesetze zur Datenlokalisierung durch, während Japan „Soft-Law“-Prinzipien eingeführt hat und bald verbindliche Vorschriften erwartet. Diese unterschiedlichen Ansätze spiegeln die spezifische Balance zwischen Innovation und Verantwortung in jedem Land wider.
Die lateinamerikanische KI-Regulierungslandschaft befindet sich noch in der Entstehungsphase, wobei ein gemeinsamer Schwerpunkt auf dem Datenschutz liegt. Brasilien, das in der Region führend bei der digitalen Regulierung ist, erließ das Allgemeine Datenschutzgesetz (General Data Protection Law, LGPD) ein, das in seinem datenschutzfreundlichen Ansatz – ähnlich wie das argentinische Datenschutzgesetz– eng an die DSGVO angelehnt ist. Mexiko prüft ebenfalls eine KI-Gesetzgebung und hat bereits unverbindliche Leitlinien herausgegeben, in denen ethische Grundsätze und Menschenrechte betont werden.
Während sich die regionale KI-Politik noch in der Entwicklung befindet, tendieren andere lateinamerikanische Länder wie Chile, Kolumbien, Peru und Uruguay zu Rahmenwerken, die Transparenz, die Zustimmung der Nutzer und menschliche Kontrolle in den Vordergrund stellen. Mit der zunehmenden Verbreitung von KI werden die lateinamerikanischen Länder wahrscheinlich dem Beispiel der EU folgen und risikobasierte Vorschriften einführen, die sich mit Hochrisikoanwendungen, Datenverarbeitungsstandards und Datenschutzrechten befassen.
Die Länder des Nahen Ostens investieren erheblich in KI, um das Wirtschaftswachstum anzukurbeln, weshalb auch die Politik besonders innovationsfreundlich ist. In vielen Fällen liegt der Schwerpunkt der Politik sowohl auf der Entwicklung technologischer Spitzenleistungen und der freiwilligen Einhaltung durch die Unternehmen als auch auf strengen gesetzlichen Anforderungen. Dies macht die Region zudem besonders komplex für Unternehmen, die sich bemühen, sich den Bedingungen jedes Landes anzupassen.
Die VAE wollen sich durch Initiativen wie die UAE National AI Strategy 2031 als weltweit führend im KI-Sektor positionieren. Die Strategie umfasst ethische Leitlinien, legt aber auch Wert auf eine innovationsfreundliche Politik, die Investitionen anzieht. Saudi-Arabien geht einen ähnlichen Weg. Vorschriften wie die Standards für Datenmanagement und den Schutz personenbezogener Daten (Data Management and Personal Data Protection Standards)konzentrieren sich auf Transparenz und Datenlokalisierung, um die Daten der Bürger zu schützen und gleichzeitig die rasche Entwicklung von KI in allen Bereichen zu fördern. Israels KI-Regulierung stützt sich auf flexible, in den Datenschutzgesetzen verankerte Richtlinien, einschließlich des Datenschutzgesetzes (Privacy Protection Law, PPL), das 2024 geändert wurde, um es an die DSGVO der EU anzupassen.
Region | Land/Region | Vorschrift/Richtlinie | Schwerpunkt | Auswirkungen auf die Wirtschaft |
Europa | EU | KI-Gesetz (geplant) | Risikoabhängige KI-Klassifizierung; hohe Standards bei Datenverwaltung, Transparenz und menschlicher Aufsicht | Höhere Aufwände bei Compliance, mögliche Verzögerungen bei der Einführung von KI aufgrund strikter Auflagen |
EU | Datenschutzgrundverordnung (DSGVO) | Datenschutz, Zustimmung zur Datenverarbeitung, Beschränkungen für grenzüberschreitende Datenübertragungen | Erhöhte Betriebskosten für die Einhaltung der Vorschriften, Herausforderungen für die globale Datenübertragung und -speicherung | |
Nordamerika | USA | Entwurf für ein KI-Grundgesetz | KI-Sicherheit, Datenschutz, Fairness; unverbindliche staatliche Leitlinien | Flexibilität ermöglicht Innovation, aber Gesetze auf Länderebene erhöhen das Risiko der Fragmentierung von Vorschriften |
USA (Bundesstaaten) | California Consumer Privacy Act (CCPA) & Virginia Consumer Data Protection Act (VCDPA) | Datenschutz, Verbraucherdatenschutz, strenge Einhaltung der Vorschriften zur Datenverarbeitung | Erhöhte gesetzliche Anforderungen für Unternehmen, die in strengen Bundesstaaten tätig sind | |
Kanada | Artificial Intelligence and Data Act (AIDA) (geplant) | Nationale KI-Ethik und Datenschutz; Transparenz, Verantwortlichkeit für die Nutzung personenbezogener Daten | Erfordert Investitionen in KI-Auditsysteme und Dokumentation | |
Kanada | Personal Information Protection and Electronic Documents Act (PIPEDA) | Datentransparenz, Zustimmung der Nutzer, Verantwortlichkeit bei der Verwendung personenbezogener Daten | Bietet Organisationen die Möglichkeit, durch Transparenz das Vertrauen ihrer Kunden zu gewinnen | |
APAC (Asien-Pazifik) | Indien | Digital Personal Data Protection Bill (DPDPB) | Datenschutz, Einwilligung der Nutzer, Datensouveränität, Lokalisierung | Betriebskosten für Systeme zur Datenlokalisierung, limitiert grenzüberschreitenden Datenfluss |
Singapur | Modell eines Rahmenwerks für KI-Governance | Verantwortungsvolle KI-Nutzung, Data Governance, Transparenz | Unternehmen, die sich frühzeitig an den Anforderungen orientieren, sichern sich einen Wettbewerbsvorteil | |
Südkorea | AI Industry Promotion Act | Unterstützung der KI-Industrie, Transparenz, Datenlokalisierung | Fördert KI-Innovationen, bringt aber Lokalisierungskosten für internationale Unternehmen mit sich | |
China | Gesetze zur Datenlokalisierung | Strenge Datenlokalisierung, Hoheit über die Datenverarbeitung | Die Datenlokalisierung ist mit Kosten für die Einhaltung der Vorschriften verbunden und kann für ausländische Unternehmen, die in China tätig sind, Hindernisse darstellen | |
Japan | Gesetz zum Schutz der Privatsphäre (Soft-Law-Grundsätze) | Schutz der Privatsphäre, künftige verbindliche Vorschriften erwartet | Kurzfristige geschäftliche Flexibilität mit dem Potenzial für zukünftige Kosten für Compliance, wenn verbindliche Vorschriften eingeführt werden | |
Lateinamerika | Brasilien | Allgemeines Datenschutzgesetz (General Data Protection Law, LGPD) | Datenschutz, Einwilligung in die Datenverarbeitung, Transparenz bei der Datennutzung | Die Angleichung an die DSGVO kann europäischen Unternehmen den Einstieg erleichtern, birgt aber auch das Potenzial, die Kosten für die Einhaltung der Vorschriften zu erhöhen |
Mexiko | Ethische Grundsätze der KI (nicht bindend) | Ethische Grundsätze, Menschenrechte, Leitlinien für den verantwortungsvollen Umgang mit KI | Minimale Compliance-Anforderungen, ein „Soft-Law“-Ansatz ermöglicht Unternehmen Flexibilität | |
Argentinien | Gesetz zum Schutz personenbezogener Daten | DSGVO-konform; Einwilligung, Datenschutz, Nutzerrechte | ||
Chile | National Intelligence Policy | Menschenrechte, Transparenz, Vermeidung von Bias beim Einsatz von KI | Geringe Compliance-Kosten, aber Fokus auf ethische KI-Praktiken erforderlich | |
Kolumbien | National Policy for Digital Transformation | Ethische KI-Nutzung, verantwortungsvolle Entwicklung, Datensouveränität | Fokus auf ethische Praktiken könnte Wettbewerbsvorteile bei öffentlichen Ausschreibungen schaffen | |
Peru | Nationale Strategie für KI | KI-Infrastruktur, Ausbildung von Fachkräften, ethische Datenpraktiken | Schafft Möglichkeiten für Unternehmen, die sich mit KI-Schulungen und -Infrastrukturen befassen, erfordert jedoch ethische Orientierung | |
Uruguay | Aktualisierte KI-Strategie (in Arbeit) | Governance in der öffentlichen Verwaltung, KI-Innovation | Erleichterung des Marktzugangs für innovationsorientierte Unternehmen trotz anspruchsvoller Anpassung an Governance-Rahmenbedingungen | |
Naher Osten | VAE | Leitfaden für KI-Ethik und für die Einführung von KI | Ethische Standards, Datenschutz, verantwortungsvoller Einsatz von KI | Unterstützt ethische KI-Entwicklung mit minimaler regulatorischer Belastung |
VAE | Dubai International Financial Center (DIFC) Datenschutzbestimmungen | Datennutzung in KI-Anwendungen, Datenschutzrechte, Datenlokalisierung | Kann die Datenübertragung erschweren, positioniert Dubai aber als führendes KI-Land | |
VAE | KI-Charta | Governance, Transparenz und Datenschutz in der KI-Praxis | Fördert die internationale Zusammenarbeit und betont den verantwortungsvollen Einsatz von KI | |
Saudi-Arabien | Standards für Datenmanagement und Schutz personenbezogener Daten | Transparenz, Datenlokalisierung, minimale Einschränkungen für KI-Innovationen | Unterstützt Innovation, erhöht aber Kosten für lokalisierte Datenverarbeitung | |
Saudi-Arabien | Ethische Grundsätze der KI und Richtlinien für generative KI | Ethische Standards, verantwortungsvolle KI-Nutzung, Leitlinien für die Industrie | Niedrige Compliance-Kosten fördern Innovation | |
Israel | Privacy Protection Law (PPL) und KI-Politik | Datenschutz, DSGVO-konforme Änderungen (KI-Politik), ethische und flexible KI-Regulierung | Flexibilität für ethisch handelnde Unternehmen, Angleichung an DSGVO kann europäische Zusammenarbeit erleichtern |
Compliance-Management stellt schon immer eine Herausforderung dar. Angesichts der vielfältigen und oft widersprüchlichen Anforderungen, die weltweit gelten, ist die Einhaltung von Vorschriften heute jedoch schwieriger denn je. International tätige Unternehmen müssen eine Balance zwischen der Einhaltung strenger Vorschriften wie der EU-Datenschutzgrundverordnung (DSGVO) oder den chinesischen Gesetzen zur Datenlokalisierung und der Einhaltung flexiblerer oder innovationsorientierter Rahmenwerke in Ländern wie Singapur und Saudi-Arabien finden. Unternehmen sind gefordert, ihre Abläufe an die unterschiedlichen Standards für Datenschutz, Transparenz und Governance anzupassen, was zu höheren Kosten und betrieblicher Ineffizienz führen kann. Diese Fragmentierung der Vorschriften zwingt Unternehmen oft zu erheblichen Investitionen in juristische Expertise, in Compliance-Infrastruktur und in maßgeschneiderte operative Strategien, um widersprüchliche Anforderungen zu erfüllen.
Für international tätige Unternehmen stellt die Einhaltung unterschiedlicher KI-Vorschriften eine große Hürde dar. State-of-the-Art-Technologien wie Sovereign Cloud und Edge Computing eröffnen jedoch neue Möglichkeiten, diese Standards zu erfüllen. Sovereign Clouds ermöglichen die Datenspeicherung und -verarbeitung innerhalb bestimmter Regionen, was es den Unternehmen erleichtert, die Gesetze zur Datenlokalisierung einzuhalten und gleichzeitig von der Skalierbarkeit der Cloud zu profitieren. Anbieter wie Gcore bieten Lösungen mit einem weltweiten Netz von Datenzentren an, die globalen Unternehmen einen nahtlosen Betrieb über Grenzen hinweg ermöglichen.
Gcore ist führend im Edge Computing, das als Ergänzung zur Lokalisierung die Datenverarbeitung näher am Entstehungsort der Daten ermöglicht. Dies verringert den Bedarf an grenzüberschreitenden Datenübertragungen und verbessert sowohl Latenzzeit als auch Netzwerkeffizienz. Dies ist besonders vorteilhaft für KI-Anwendungen in Bereichen wie autonomes Fahren und Telemedizin, in denen sowohl Geschwindigkeit als auch Konformität entscheidend sind. Darüber hinaus vereinfacht Gcore die Einhaltung von Vorschriften wie der EU-DSGVO und dem KI-Gesetz, indem es dazu beiträgt, dass sensible Daten sicher und innerhalb der regionalen Grenzen bleiben.
]]>Edge-basiertes WAAP bietet dynamische Skalierbarkeit und erhöhte Geschwindigkeit und bewältigt effizient große Datenmengen und unerwartete Nachfragespitzen. Verteilt auf zahlreiche globale Präsenzpunkte bietet sie robuste, flexible Sicherheit, die sich in Echtzeit an Bedrohungen und Angriffe anpasst und damit perfekt für den Schutz von Anwendungen in komplexen Multi-Cloud-Umgebungen geeignet ist.
Bei zentralisierten WAAP-Lösungen steht in der Regel eine einzige Sicherheitsanwendung oder Software-Instanz zwischen dem Internet und der Anwendung. Die zentralisierte WAAP ist zwar in bestimmten Szenarien wirksam, hat aber ihre Grenzen, insbesondere wenn es um globale Anwendungen und verteilte Infrastrukturen geht. Zu den Nachteilen gehören:
Edge-WAAP hingegen verteilt Sicherheitsfunktionen auf mehrere Punkte im Netzwerk, häufig näher am Edge. Dieser Ansatz bietet mehrere Vorteile: geringere Latenzzeiten, bessere Leistung, höhere Sicherheit und größere Flexibilität. Betrachten wir sie der Reihe nach.
Durch die Nutzung der Leistungsfähigkeit von CDN, um die Sicherheit in die Nähe des Endnutzers zu bringen, reduziert Edge WAAP die Latenzzeit erheblich, da der Datenverkehr näher an der Quelle verarbeitet wird. Die Latenzzeit steigt mit zunehmender physischer Entfernung zwischen Benutzern und Rechenzentren, so dass die Verringerung dieser Entfernung der Schlüssel zur Verbesserung der Reaktionszeiten ist. Dank des umfangreichen PoP-Netzwerks von Gcore auf der ganzen Welt werden Daten stets in der Nähe der Endnutzer verarbeitet. Dies reduziert die Datenübertragungsdistanz und ermöglicht eine schnellere Reaktion bei der Abwehr von Angriffen. Bei herkömmlichen Systemen bedeutet die Zentralisierung der Sicherheitsfunktionen, dass alle Anfragen (einschließlich potenziell böswilliger Anfragen) über eine einzige Stelle laufen, was zu Engpässen und einer Verlangsamung des Dienstes führen kann. Edge WAAP vermeidet dieses Problem, indem es die Sicherheitsfunktionen näher am Ursprung der Anfrage bearbeitet.
Dies führt zu einer reibungsloseren und schnelleren Interaktion mit den Kunden, selbst bei Spitzenbelastungen. So könnte beispielsweise eine globale E-Commerce-Plattform Edge WAAP nutzen, um ein nahtloses Einkaufserlebnis in verschiedenen Regionen mit minimalen Verzögerungen zu ermöglichen. Durch niedrige Latenzzeiten verbessert Edge WAAP die Gesamtleistung der Anwendung und bietet die nötige Skalierbarkeit, um schwankende Verkehrsanforderungen zu bewältigen. Diese Struktur ermöglicht es Unternehmen, reaktionsschnelle und zuverlässige Dienste aufrechtzuerhalten, während sie wachsen, und unterstützt sowohl aktuelle als auch zukünftige Skalierungsanforderungen.
Die Kombination aus geringer Latenzzeit und globaler Netzverteilung macht Edge WAAP sicherer als Standard-WAAP-Lösungen. Indem der Datenverkehr näher an seiner Quelle verarbeitet wird, kann Edge-WAAP Bedrohungen in Echtzeit erkennen und abwehren, wodurch die Verzögerung zwischen der Identifikation böswilliger Aktivitäten und der Reaktion minimiert wird. Dieser Ansatz mit niedriger Latenz verringert das Zeitfenster für Angreifer und garantiert, dass Bedrohungen wie DDoS-Angriffe, Bot-Aktivitäten und API-Missbrauch neutralisiert werden, bevor sie die Kerninfrastruktur erreichen.
Darüber hinaus nutzt Edge WAAP ein global verteiltes Netzwerk, um verdächtige Datenverkehrsmuster über Regionen hinweg zu überwachen, was die Transparenz erhöht und die Anwendung von Sicherheitsmaßnahmen auf der Grundlage des geografischen Ursprungs von Bedrohungen ermöglicht. Dieser Ansatz kommt vor allem Unternehmen zugute, die mit sensiblen Daten arbeiten oder Compliance-Anforderungen in mehreren Regionen erfüllen müssen. Durch die Kombination aus geringer Latenzzeit und umfassender, globaler Bedrohungsüberwachung bietet Edge WAAP proaktiven, anpassungsfähigen Schutz, der schnell auf neue Bedrohungen reagieren kann.
Edge WAAP ermöglicht Unternehmen die Anpassung an sich entwickelnde Netzwerktopologien und Anwendungsarchitekturen. Durch die Bereitstellung von WAAP am Edge können Sicherheitsfunktionen verteilt und an ein sich änderndes Netzwerkumfeld angepasst werden, sei es aufgrund von Wachstum, veränderten Datenverkehrsströmen oder neuen Anforderungen an die Bereitstellung. Dank dieser Flexibilität kann WAAP eine Reihe von Architekturen unterstützen, von Multi-Cloud- und Hybrid-Umgebungen bis hin zu komplexeren, regionsspezifischen Konfigurationen.
Der Edge-basierte Ansatz von Gcore lässt sich nahtlos in Multi-Cloud- und Hybrid-Umgebungen integrieren und erleichtert Unternehmen die Skalierung und Anpassung von Sicherheitskonfigurationen, wenn sie wachsen. Diese Flexibilität ist besonders wertvoll für Unternehmen, die in neue Regionen expandieren oder neue Technologien einführen, da Edge WAAP sich an ihre individuellen Infrastrukturanforderungen anpassen kann.
Edge-basiertes WAAP ist eine leistungsstarke Lösung zur Sicherung moderner Anwendungen und APIs. Gcore WAAP bringt die Sicherheit näher an die Kunden heran und sorgt so für einen schnelleren und effizienteren Schutz dank unseres riesigen globalen Netzwerks von mehr als 180 Präsenzpunkten (PoPs) in mehr als 95 Ländern .
Gcore WAAP arbeitet am Edge, um umfassenden Schutz vor DDoS-Angriffen, böswilligen Bots und API-Schwachstellen zu bieten. Außerdem lässt sie sich leicht skalieren, um hohe Datenverkehrsanforderungen in verteilten Multi-Cloud-Systemen zu bewältigen. Erfahren Sie, wie Gcore WAAP weltweit unübertroffene Geschwindigkeit bietet und Ihren Anwendungen robuste Sicherheit in einer Umgebung mit geringer Latenz ermöglicht.
]]>Dieser Umsatzanstieg ist zwar eine gute Nachricht für die Unternehmen, doch zieht der Hype auch Cyberkriminelle an, die sich die verstärkte Online-Aktivität zunutze machen wollen. Hier erfahren Sie, warum Hacker BFCM ausnutzen wollen, wie sie dies tun und wie sich Unternehmen vor Hacks in der Weihnachtszeit schützen können.
Es gibt mehrere Gründe, warum Cyberkriminelle es auf E-Commerce-Websites abgesehen haben, insbesondere während der geschäftigen Einkaufszeit zum Jahresende.
Cyberkriminelle suchen zunehmend nach neuen Wegen, um E-Commerce-Websites anzugreifen. Dies sind nur einige Techniken, die Sie kennen sollten.
Trotz der Tatsache, dass die Betrüger immer innovativer werden, ist die gute Nachricht, dass fast 99 % der Angriffe durch grundlegende Sicherheitsvorkehrungen verhindert werden können. Zunächst einmal sollten Unternehmen sicherstellen, dass ihr E-Commerce-System und ihre Plugins immer auf dem neuesten Stand sind und dass sie keine nicht vertrauenswürdige Open-Source-Software verwenden. Virtuelles Patching, das Schwachstellen beseitigt, indem es als virtueller Schutzschild fungiert und bösartigen Traffic filtert, kann dieses Problem lösen.
Es ist auch ratsam, keine sensiblen Kundendaten auf den Systemen Ihres Unternehmens zu speichern, die über das absolut Notwendige hinausgehen. Das Speichern von Kreditkartennummern und sensiblen Kundendaten ist streng geregelt und erfordert von Unternehmen die Einhaltung von Standards wie PCI DSS oder ISO 2700x. Selbst vorschriftsmäßig vorgehende Unternehmen sollten nur das speichern, was für die Aufrechterhaltung ihrer E-Commerce-Website zwingend erforderlich ist, um das Risiko im Falle eines Cyberangriffs zu minimieren.
Der Schutz Ihrer Website ist keine einmalige Aufgabe. Es ist wichtig, regelmäßig nach Schwachstellen im Code und in der Anwendungsschicht einer Website zu suchen. Schwachstellen-Scanner konzentrieren sich auf die Identifizierung und Auflistung von Schwachstellen auf Ihrer Website und dienen als erster Schritt zur Risikominderung.
Zu den Tools, mit denen Websites kontinuierlich vor bösartigem Datenverkehr geschützt werden können, gehören WAAP und DDoS-Schutz. Diese arbeiten im Hintergrund, um Ihre Infrastruktur vor häufigen Angriffen zu schützen, bevor sie geschehen, sodass Sie die Folgen nicht abmildern müssen. Wenn Sie diese Aufgaben an einen zuverlässigen Drittanbieter auslagern, können Sie sich entspannt zurücklehnen und wissen, dass Ihre Sicherheitslösung selbst die komplexesten und neuesten Bedrohungen abwehrt.
Es ist noch Zeit, Sicherheitsmaßnahmen für Ihre Website zu implementieren, bevor die Saison der Weihnachtseinkäufe beginnt. Die bewährten Sicherheitslösungen von Gcore, WAAP und DDoS Protection, können zum Schutz Ihrer Website und Ihres E-Commerce-Frameworks beitragen.
Wenn Sie Ihre Sicherheitsprobleme im Urlaub mit uns besprechen möchten, nehmen Sie Kontakt mit uns auf. Einer unserer Experten kann Ihnen bei der Entscheidung helfen, was für Ihr Unternehmen das Richtige ist, damit Sie sich auf die Betreuung Ihrer Kunden konzentrieren können, anstatt sich gegen Betrüger zu wehren.
Kontaktieren Sie uns, um Ihre Anforderungen an die Cybersicherheit zu besprechen
]]>Die Entwicklung von Chatbots schreitet schnell voran. Neue Tools und Frameworks machen es einfacher und effizienter, anspruchsvolle Systeme zu entwickeln. Die derzeitigen großen Sprachmodelle (LLMs) leiden jedoch unter Einschränkungen: Es fehlt ihnen an aktuellem Wissen und sie können nicht auf domänenspezifische Informationen zugreifen, wie z.B. auf den Inhalt der Wissensdatenbank eines Unternehmens. Retrieval-augmented generation (RAG) kann dieses Problem lösen, indem es Wissen findet, das über die Trainingsdaten des LLM hinausgeht, und diese Informationen dann an ein LLM weitergibt.
In diesem technischen Artikel erkläre ich, wie man LangChain Community, Mixtral 8-7B und ChromaDB nutzt, um einen fortschrittlichen Chatbot zu erstellen, der in der Lage ist, verschiedene Dateitypen zu verarbeiten, Informationen aus einer Vektordatenbank abzurufen, über eine semantische Suche zu recherchieren und mit den Benutzern über eine intuitive Schnittstelle zu interagieren.
Die Tools und Prozesse für die Chatbot-Entwicklung entwickeln sich sehr schnell weiter. Sie erweitern die Fähigkeiten von Chatbots und verändern die Art und Weise, wie sie mit Nutzern interagieren und Informationen verarbeiten. Ich habe fünf identifiziert, die ich für besonders wichtig halte, und werde sie in diesem Tutorial verwenden.
In diesem Tutorial werden diese Werkzeuge praktisch angewendet. Doch zunächst eine Anmerkung zum RAG für die Neulinge
Die RAG spielt eine zentrale Rolle bei der Verbesserung der Funktionalität der LLM. RAGs erleichtern den LLMs den Zugang zu externen Daten und ermöglichen es ihnen, Antworten mit zusätzlichem Kontext zu generieren. Das Ergebnis ist eine App, die den Endnutzern ein hervorragendes LLM-Erlebnis der nächsten Generation bietet. Ihr LLM ist mit der RAG einfach hilfreicher und effektiver.
Die RAG arbeitet in einer Abfolge von vier wesentlichen Schritten:
Um die Wirksamkeit von RAG bei der Verbesserung der Fähigkeiten des Chatbots zu veranschaulichen, habe ich Screenshots erstellt, in denen die Antworten des Modells mit und ohne Verwendung von RAG verglichen werden:
Dem Modell fehlt die Möglichkeit, auf aktuelle Preisinformationen zuzugreifen, da diese nicht Teil des Trainingsdatensatzes waren. Diese Einschränkung führt zu Antworten, die nicht die aktuellen Unternehmensdaten widerspiegeln.
Nachdem die Seite https://gcore.com/de/pricing/cloud als PDF-Datei gespeichert und als zusätzlicher Inhalt für die RAG verwendet worden war, analysierte und nutzte das Modell die Datei effektiv und beantwortete Fragen zu aktuellen Preisen präzise. Dies zeigt die Fähigkeit von RAG, die Leistung des Chatbots durch die Integration von dynamischen, externen Informationen zu verbessern.
Um eine optimale Leistung unseres Chatbot-Systems sicherzustellen, habe ich das Setup auf einer virtuellen Maschine getestet, die mit 4 × GeForce GTX 1080 Ti GPUs ausgestattet war. Die durchschnittliche Auslastung dieser Ressourcen ist entscheidend für die Aufrechterhaltung der anspruchsvollen Prozesse des Chatbots.
Durch die Implementierung des Befehls export CUDA_VISIBLE_DEVICES=0
habe ich das System darauf beschränkt, nur eine GPU zu nutzen. Diese Anpassung veränderte die Auslastung der GPU-Ressourcen erheblich, da das Modell etwa 6 GB GPU-Speicher benötigte, um die Anforderungen effizient zu verarbeiten.
Mit diesem Einrichtungsprozess erhalten Sie alle erforderlichen Tools und Abhängigkeiten, die für eine effiziente Ausführung und Interaktion mit dem Chatbot erforderlich sind. Der benötigte Code ist auf GitHub verfügbar, daher habe ich es vorgezogen, ihn nicht in seiner Gesamtheit an dieser Stelle zu schreiben. Ich habe das Modell mit Ubuntu 22.04 ausgeführt, aber es funktioniert mit jedem aktuellen Linux Betriebssystem.
Initialisieren Sie eine neue virtuelle Python-Umgebung, um Abhängigkeiten zu verwalten:
python3 -m venv chatbot-env
Aktivieren Sie die erstellte Umgebung, um sie für die folgenden Schritte zu verwenden:
source chatbot-env/bin/activate
Laden Sie den Projektcode von unserem GitHub-Repository herunter:
git clone https://github.com/G-Core/ai-code-examples.git
Installieren Sie alle erforderlichen Bibliotheken aus der mitgelieferten Anforderungsdatei:
pip install -r requirements.txt
Starten Sie die Chatbot-Anwendung mit Python:
python chat_bot.py
Wenn Sie den Chatbot auf Ihrem lokalen Rechner ausführen, öffnen Sie einen Webbrowser und navigieren Sie zur URL des lokalen Servers:
http://127.0.0.1:5050
Es wird dieser Bildschirm angezeigt:
Wenn Sie den Chatbot auf einer Remote Machine, z.B. in der Cloud, ausführen, müssen Sie Port-Forwarding Techniken verwenden. Um den Bot über alle Netzwerkschnittstellen zugänglich zu machen, ändern Sie die Serverkonfiguration in Ihrem Code, indem Sie 127.0.0.1 in 0.0.0.0 ändern:
demo.launch(server_name="0.0.0.0", server_port=5050, auth=("user", "password")).queue().launch(root_path="/")
Hinweis: Die Bereitstellung des Bots auf einer öffentlichen Schnittstelle kann Sicherheitsrisiken bergen. Stellen Sie daher sicher, dass Sie geeignete Sicherheitsmaßnahmen getroffen haben.
Der Entwicklungsprozess, den ich hier beschrieben habe, ebnet den Weg für die Entwicklung von Chatbots, die sachkundiger, reaktionsschneller und effektiver sind und in der Lage sind, herkömmliche Beschränkungen zu überwinden, indem sie auf aktuelle Informationen zugreifen und Antworten geben, die auf einem umfassenden Verständnis der hochgeladenen Dokumente basieren. Diese Reise in die Chatbot-Entwicklung unterstreicht die Bedeutung der Integration neuer Technologien und den Bedarf an regelmäßig aktualisierten Entwicklungsstrategien, die sich an neue Fortschritte anpassen und diese einbeziehen, um intelligentere, effizientere und benutzerfreundlichere Chatbot-Anwendungen zu schaffen. Da die Technologie immer weiter fortschreitet, ist das Potenzial von Chatbots als Werkzeuge für die Informationsbeschaffung, die Einbindung von Kunden und die personalisierte Unterstützung nur durch die Kreativität und Innovation der Entwickler begrenzt.
Bei Gcore ebnen wir den Weg für die Zukunft der KI, indem wir den gesamten Lebenszyklus der KI-Entwicklung unterstützen: Training, Inferenz und Anwendungen. Wir verwenden hochmoderne NVIDIA-Grafikprozessoren für eine herausragende Leistung in unserem globalen Netzwerk mit mehr als 180 Präsenzpunkten. Unser Ziel ist es, die Welt mit KI zu verbinden, überall und jederzeit.
]]>Bei der Auswahl kostenloser GUIs für Kubernetes haben wir nach Tools gesucht, die die wesentlichen Funktionen für die Verwaltung eines K8s-Clusters in Produktionsqualität bieten. Diese Werkzeuge müssen nicht mit dem umfangreichen Funktionsumfang von kubectl übereinstimmen, da dies zu einer unübersichtlichen und übermäßig komplexen Schnittstelle führen könnte. Eine grafische Benutzeroberfläche sollte jedoch alle wichtigen Clusterkomponenten visualisieren und es den Benutzern ermöglichen, wichtige Verwaltungsvorgänge wie die Bearbeitung von Manifesten, das Abrufen von Protokollen und die Fehlersuche durchzuführen.
Unsere Top 5:
Alle diese GUIs sind mit Gcore Managed Kubernetes kompatibel.
Schauen wir uns die einzelnen Tools genauer an, wobei wir uns auf ihre wichtigsten Merkmale, Stärken und Schwächen konzentrieren.
Kubernetes Dashboard ist eine beliebte GUI, die von der Kubernetes-Community unterstützt und entwickelt wird. Es ist für den täglichen Betrieb und das Debugging von Anwendungen im Cluster gedacht.
Das Dashboard bietet eine übersichtliche und bequeme Navigation durch die Cluster-Namensräume und zeigt alle definierten Objekte an, z.B. Bereitstellungen, Daemon-Sets und Dienste. Mit der RBAC-Funktionalität können Sie Entwicklern einen minimalen, aber ausreichenden Zugang zu einem Cluster gewähren, um die Aufgaben auszuführen, zu denen sie berechtigt sind. Es gibt auch einen Log Viewer, mit dem Sie die Protokolle der Container eines Pods einsehen können.
Mit Kubernetes Dashboard können Sie containerisierte Anwendungen als Bereitstellungen erstellen und ausführen. Dazu müssen Sie die Details Ihrer Anwendung manuell angeben oder ein YAML- oder JSON-Manifest mit ihrer Konfiguration hochladen.
Der größte Nachteil des Dashboards ist die fehlende Unterstützung mehrerer Cluster. Wenn Sie mehrere K8s-Cluster haben, müssen Sie separate Dashboards für diese konfigurieren.
Lens ist als vollwertige IDE (integrierte Entwicklungsumgebung) für Kubernetes positioniert und eignet sich für alle Benutzerebenen, vom Anfänger bis zum Fortgeschrittenen. Eine IDE ist eine Softwareanwendung, die Programmierern umfassende Funktionen für die Softwareentwicklung zur Verfügung stellt, darunter einen Code-Editor, einen Debugger und Werkzeuge zur Automatisierung der Erstellung. Als eine Art grafische Benutzeroberfläche (GUI) bietet eine IDE einen visuellen Ansatz für die Softwareentwicklung, der die Verwaltung und Navigation komplexer Kodierungsaufgaben erleichtert. Im Gegensatz zum Kubernetes Dashboard, das eine Web-UI ist, ist Lens eine eigenständige Anwendung für macOS, Windows und Linux.
Lens bietet viele nützliche Funktionen, darunter Unterstützung für mehrere Cluster, Helm Charts und integriertes Prometheus, das Statistiken über die Nutzung von Rechenressourcen sammelt. Außerdem bietet es Befehlszeilenzugriff auf Clusterknoten und Container. Was die Sicherheit betrifft, so unterstützt es RBAC und ermöglicht die Bearbeitung von Secrets.
Ein weiterer Vorteil von Lens ist die integrierte Kommandozeile mit vorinstalliertem kubectl. Diese Befehlszeile wird automatisch mit der Kubernetes-API des Clusters synchronisiert, sodass Sie nicht mehrere Versionen von kubectl auf Ihrem Rechner installieren müssen, um mit verschiedenen Clustern zu arbeiten. Mit Lens haben Sie eine einzige kubectl-Instanz, die nahtlos in allen Ihren Clustern funktioniert.
Später in diesem Artikel werden wir Lens verwenden, um eine Verbindung zu einem Gcore Managed Kubernetes-Cluster herzustellen und die GUI genauer zu untersuchen.
Kubernetes Web View ist ein Tool, das Administratoren helfen soll, auf Vorfälle zu reagieren und Fehler in einem K8s-Cluster zu beheben. Sein Autor, Henning Jacobs, nennt es „eine Web-Version von kubectl“. Kubernetes Web View unterstützt:
Kubernetes Web View ist ein einfacheres Tool als z.B. Kubernetes Dashboard; es bietet eine weniger detaillierte Visualisierung. Aber das ist in Ordnung, wenn man bedenkt, dass seine Hauptnutzer wahrscheinlich erfahrene K8s-Administratoren sind.
Leider unterstützt die Kubernetes-Webansicht kein Anwendungsmanagement über Deployments oder Helm Charts. Eine weitere Einschränkung ist, dass die grafische Benutzeroberfläche nur von Henning Jacobs entwickelt und seit 2021 nicht mehr aktualisiert worden ist.
Skooner, früher bekannt als k8dash, ist eine Web-UI für Echtzeit-Cluster-Management. Es bietet eine breite Palette von Funktionen, von der Erstellung von Kubernetes-Objekten bis hin zu Metriken zur Kontrolle des Ressourcenverbrauchs. Mit Skooner können Sie den Zustand eines Clusters anhand von Live-Diagrammen anzeigen und schlecht funktionierende Ressourcen verfolgen. Es ist auch das einzige mobil-optimierte Tool auf dieser Liste, so dass Sie Ihren Cluster über ein Telefon oder Tablet verwalten können.
Die Hauptnachteile von Skooner sind die fehlende Unterstützung für Multicluster-Installationen und CRDs (Custom Resource Definitions). Außerdem kann der Installationsprozess für Kubernetes-Neulinge knifflig sein.
Kubevious ist die einzige sicherheitsorientierte kostenlose GUI für Kubernetes in unserer Liste. Sein Hauptziel ist es, den Zustand und die Konfiguration eines Clusters sowie die Anwendungsmanifeste zu validieren. Kubevious kann Fehler wie Fehlkonfigurationen, Konflikte und sogar Tippfehler erkennen und verhindern. Es hilft Ihnen, die besten Praktiken für die Konfiguration und Verwaltung von Kubernetes zu befolgen. Sie können RBAC (rollenbasierte Zugriffskontrolle) auch über ein Arbeitsblatt mit verknüpften Rollen, Rollenbindungen und Dienstkonten verwalten.
Die grafische Benutzeroberfläche von Kubevious zeigt Kubernetes-Objekte in einer Baumstruktur an und bietet Administratoren einen klaren Überblick über Microservices, ihre Verbindungen und Abhängigkeiten. Sie bietet auch verschiedene „Ansichten“ eines Clusters aus bestimmten Perspektiven. Die Logic-Ansicht konzentriert sich beispielsweise auf Anwendungskomponenten und Abhängigkeiten, während sich die Image-Ansicht auf Container-Images und deren Repositories konzentriert, die in einem K8s-Cluster verwendet werden.
Der größte Nachteil von Kubevious ist die fehlende Multicluster-Unterstützung. Außerdem scheint der Entwicklungsprozess zu stagnieren: Die letzte Aktualisierung erfolgte im Jahr 2022.
Nach der Überprüfung der einzelnen kostenlosen GUI-Tools für Kubernetes fassen wir ihre wichtigsten Funktionen in einem Vergleichsdiagramm zusammen, um die allgemeinen Funktionsunterschiede zu sehen.
Kubernetes Dashboard | Lens | Kubernetes Web-Ansicht | Skooner | Kubevious | |
Installation type | K8s-Cluster | Desktop | Desktop, K8s-Cluster | K8s-Cluster | Desktop, K8s-Cluster |
Visualisierung des Clusterzustands | ![]() | ![]() | ![]() | ![]() | ![]() |
Objekte finden | ![]() | ![]() | ![]() | ![]() | ![]() |
Erstellen und Bearbeiten von Objekten | ![]() | ![]() | – | ![]() | – |
Einsehen der YAML-Konfiguration | ![]() | ![]() | ![]() | ![]() | ![]() |
RBAC-Verwaltung | ![]() | ![]() | – | ![]() | – |
Helm-Support | – | ![]() | – | – | – |
Metriken zur Ressourcennutzung | ![]() | ![]() | – | ![]() | ![]() |
Multi-Cluster-Unterstützung | – | ![]() | ![]() | – | – |
Pod Logs | ![]() | ![]() | ![]() | ![]() | – |
Empfehlungen zur Ressourcenoptimierung | – | ![]() | ![]() | ![]() | – |
Die Wahl des richtigen GUI-Tools für Kubernetes hängt von Ihren Projektanforderungen ab. Wenn Sie beispielsweise mehrere Cluster haben, werden Sie wahrscheinlich GUIs vermeiden, die keine Multicluster-Installationen unterstützen, und sich stattdessen für Kubernetes Dashboard, Skooner oder Kubevious entscheiden. Wenn Ihr Hauptaugenmerk auf der Sicherheit liegt, sollten Sie zuerst Kubevious in Betracht ziehen, auch wenn Lens die umfangreichste Funktionsliste zu haben scheint – manchmal ist eine spezialisierte GUI für Ihr Projekt besser geeignet als die mit den umfangreichsten Funktionen.
Wir empfehlen Ihnen, mindestens drei verschiedene grafische Benutzeroberflächen auszuprobieren, um deren Fähigkeiten zu testen und zu sehen, wie gut sie Ihren Anforderungen entsprechen. Diese praktische Erfahrung wird Ihnen helfen, ihre Stärken und Schwächen im Zusammenhang mit Ihren spezifischen Projektanforderungen zu verstehen, so dass Sie eine fundierte Entscheidung treffen können.
Gcore Managed Kubernetes bietet eine einfache und schnelle Möglichkeit, einen K8s-Cluster in der Cloud zu betreiben. In 10-15 Minuten haben Sie einen produktionsfähigen Cluster. Dann können Sie eine beliebige freie GUI installieren, um alle Funktionen zu nutzen, wenn Sie mit unserem Managed Kubernetes arbeiten. Wir zeigen Ihnen, wie Sie dies am Beispiel der grafischen Benutzeroberfläche für Lens tun können.
Hier erfahren Sie, wie Sie Lens mit Gcore Managed Kubernetes einsetzen können:
Wir zeigen Ihnen auch, wie Sie Lens Metrics aktivieren, damit Sie sehen können, wie viele Rechenressourcen Ihr Cluster verbraucht.
Melden Sie sich im Gcore-Kundenportal an. Wenn Sie noch nicht registriert sind, melden Sie sich kostenlos mit Ihrem E-Mail-, Google- oder GitHub-Konto an.
Klicken Sie im linken Navigationsmenü auf Cloud und dann auf Kubernetes. Klicken Sie auf der Hauptregisterkarte auf Cluster erstellen.
Konfigurieren Sie Ihren Cluster nach Bedarf, oder befolgen Sie die unten stehenden Mindestempfehlungen, die ausreichen, um Lens zu testen und zu prüfen, ob es für Sie geeignet ist:
Nachdem Sie die Einrichtungsschritte abgeschlossen haben, klicken Sie auf Cluster erstellen. Der Cluster wird im Abschnitt „Kubernetes-Cluster“ angezeigt. Warten Sie ein paar Minuten, bis der Status von „Erstellen“ auf „Bereitgestellt“ wechselt.
Starten Sie Terminal auf Ihrem lokalen Rechner und erstellen Sie einen .kube-Ordner:
mkdir ~/.kube
Gehen Sie im Gcore-Kundenportal zu Ihren Cluster-Einstellungen, klicken Sie auf Kubernetes-Konfiguration und laden Sie sie in den Ordner .kube
herunter:
Benennen Sie diese Datei von k8sConfig.yml in config um und entfernen Sie die Erweiterung .yml.
Jetzt kann Lens auf Ihren Cluster zugreifen.
Laden Sie Lens Desktop für Ihr Betriebssystem (OS) herunter und führen Sie das Paket aus, indem Sie die Lens-Anleitungen für ein bestimmtes OS befolgen.
Wenn Sie das Programm starten, werden Sie aufgefordert, Ihr Lens zu registrieren, auch in der kostenlosen Version. Sie können dies mit ein paar Klicks tun; wir werden diese Anweisungen hier überspringen; bitte registrieren Sie Lens auf eigene Faust.
Nach der Aktivierung von Lens sehen Sie einen Begrüßungsbildschirm wie diesen:
Wählen Sie in Lens in der oberen linken Ecke die Option Katalog und dann die Option Cluster. Klicken Sie auf die Schaltfläche + in der unteren rechten Ecke, um Ihre Konfigurationsdatei hinzuzufügen:
Wählen Sie die zuvor heruntergeladene Konfigurationsdatei aus und klicken Sie auf Synchronisieren. Sie werden sehen, dass die Verbindung hergestellt wird:
Sobald Lens mit Ihrem Cluster verbunden ist, wird es in der Clusterliste angezeigt.
Herzlichen Glückwunsch! Sie sind nun bereit, Ihren Cluster mit Lens zu verwalten. Doppelklicken Sie auf Ihren Cluster, um eine Übersicht zu erhalten:
Die Aktivierung von Lens Metrics hilft Ihnen, Ihren Cluster auf die eigentliche Arbeit vorzubereiten. Die Funktion bietet Metrics-Exporters, die Daten über die Ressourcennutzung Ihres Clusters sammeln.
Öffnen Sie die Cluster-Einstellungen und wählen Sie Lens Metrics. Schalten Sie alle Optionen ein:
Auf der Cluster-Übersichtsseite sehen Sie, dass Lens begonnen hat, die CPU-, Speicher-, Netzwerk- und andere Ressourcennutzung zu visualisieren. Sie können sogar sehen, wie viele Rechenressourcen jede Anwendung verbraucht:
Kostenlose GUI-Tools für Kubernetes bieten eine Reihe von Features und Funktionen für die Visualisierung und Verwaltung von Kubernetes-Ressourcen, von intuitiven webbasierten Schnittstellen bis hin zu Multi-Cluster-Unterstützung und YAML-Editoren. Einige GUIs sind universell einsetzbar, wie Lens und Kubernetes Dashboard, während andere spezifischer sind, wie Kubevious.
Egal, für welche dieser kostenlosen Kubernetes-GUIs Sie sich entscheiden, Sie können sie mit Gcore Managed Kubernetes verwenden. Gcore Managed Kubernetes bietet Unterstützung für Bare-Metal- und Virtual-Machine-Worker-Nodes, kostenloses Cluster-Management mit einem SLA von 99,9 % und die gleichen Preise für Worker-Nodes wie für VMs und Bare-Metal-Instanzen.
]]>Die rollenbasierte Zugriffskontrolle (RBAC) ist der Standardansatz für die Zugriffskontrolle in Kubernetes. Dieses Modell kategorisiert Berechtigungen mit Hilfe spezifischer Verbs, um erlaubte Interaktionen mit Ressourcen zu definieren. Innerhalb dieses Systems können drei weniger bekannte Berechtigungen –escalate
, bind
und impersonate
– bestehende Rollenbeschränkungen außer Kraft setzen, unbefugten Zugriff auf eingeschränkte Bereiche gewähren, vertrauliche Daten offenlegen oder sogar die vollständige Kontrolle über einen Cluster ermöglichen. Dieser Artikel erläutert diese leistungsstarken Berechtigungen und gibt einen Überblick über ihre Funktionen sowie Hinweise zur Minderung der damit verbundenen Risiken.
In diesem Artikel gehe ich davon aus, dass Sie bereits mit den Schlüsselkonzepten von Kubernetes RBAC vertraut sind. Falls nicht, lesen Sie bitte die Dokumentation von Kubernetes.
Wir müssen jedoch kurz an ein wichtiges Konzept erinnern, das in direktem Zusammenhang mit diesem Artikel steht: Role. Hier werden die Zugriffsrechte auf K8s-Ressourcen innerhalb eines bestimmten Namespace und die verfügbaren Operationen beschrieben. Rollen bestehen aus einer Reihe von Regeln. Die Regeln umfassen verbs
-verfügbare Vorgänge für definierte Ressourcen.
Hier ist ein Beispiel für eine Rolle aus der K8s-Dokumentation, die Lesezugriff auf Pods gewährt:
apiVersion: rbac.authorization.k8s.io/v1 kind: Role metadata: namespace: default name: pod-reader rules: - apiGroups: [""] # "" points to the core API group resources: ["pods"] verbs: ["get", "watch", "list"]
Verbs wie get
, watch
, und list
werden häufig verwendet. Aber es gibt andere, die noch viel spannender sind.
Für eine detailliertere und komplexere Verwaltung von Berechtigungen verfügt das K8s RBAC über die folgenden Verbs:
escalate
: Ermöglicht es Benutzern, Rollen zu erstellen und zu bearbeiten, auch wenn sie nicht über die ursprünglichen Berechtigungen dazu verfügen.bind
: Ermöglicht Benutzern die Erstellung und Bearbeitung von Rollenbindungen und Cluster-Rollenbindungen mit Berechtigungen, die ihnen nicht zugewiesen wurden.impersonate
: Ermöglicht es Benutzern, sich als andere Benutzer auszugeben und deren Berechtigungen im Cluster oder in einer anderen Gruppe zu erhalten. Mit diesem Verb kann auf kritische Daten zugegriffen werden.Im Folgenden werden wir sie genauer kennenlernen. Aber zuerst wollen wir einen Test-Namespace erstellen und ihn rbac nennen:
kubectl create ns rbac
Erstellen Sie dann eine Test-SA privesc:
kubectl -n rbac create sa privesc
Wir werden sie im weiteren Verlauf dieses Lehrgangs verwenden.
Standardmäßig erlaubt die RBAC-API von Kubernetes Benutzern nicht, ihre Berechtigungen durch einfaches Bearbeiten einer Rolle oder Rollenbindung zu erweitern. Diese Einschränkung gilt auf API-Ebene auch dann, wenn die RBAC-Autorisierung deaktiviert ist. Die einzige Ausnahme ist, wenn die Rolle das Verb escalate
hat.
In der folgenden Abbildung kann die SA, die nur über die Berechtigungen update
und patch
verfügt, der Rolle kein neues Verb hinzufügen. Aber wenn wir eine neue Rolle mit dem Verb escalate
hinzufügen, wird es möglich:
Schauen wir uns die Funktionsweise im Detail an.
Erstellen Sie eine Rolle, die nur Lesezugriff auf Pods und Rollen in diesem Namespace erlaubt:
kubectl -n rbac create role view --verb=list,watch,get --resource=role,pod
Verknüpfen Sie diese Rolle mit der SA privesc:
kubectl -n rbac create rolebinding view --role=view --serviceaccount=rbac:privesc
Prüfen Sie, ob die Rolle aktualisiert werden kann:
kubectl auth can-i update role -n rbac --as=system:serviceaccount:rbac:privesc no
Wie wir sehen können, kann die SA Rollen lesen, aber nicht bearbeiten.
Erstellen Sie eine neue Rolle, die die Bearbeitung von Rollen im rbac-Namenspace ermöglicht:
kubectl -n rbac create role edit --verb=update,patch --resource=role
Verknüpfen Sie diese neue Rolle an die SA privesc:
kubectl -n rbac create rolebinding edit --role=edit --serviceaccount=rbac:privesc
Prüfen Sie, ob die Rolle aktualisiert werden kann:
kubectl auth can-i update role -n rbac --as=system:serviceaccount:rbac:privesc yes
Prüfen Sie, ob die Rolle gelöscht werden kann:
kubectl auth can-i delete role -n rbac --as=system:serviceaccount:rbac:privesc no
Die SA kann jetzt Rollen bearbeiten, aber nicht löschen.
Im Interesse der experimentellen Genauigkeit sollten wir die SA-Fähigkeiten überprüfen. Dazu verwenden wir ein JWT (JSON Web Token):
TOKEN=$(kubectl -n rbac create token privesc --duration=8h)
Wir sollten die alten Authentifizierungsparameter aus der Konfiguration entfernen, da Kubernetes zuerst das Zertifikat des Benutzers überprüft und das Token nicht überprüft, wenn es das Zertifikat bereits kennt.
cp ~/.kube/config ~/.kube/rbac.conf export KUBECONFIG=~/.kube/rbac.conf kubectl config delete-user kubernetes-admin kubectl config set-credentials privesc --token=$TOKEN kubectl config set-context --current --user=privesc
Diese Rolle zeigt, dass wir andere Rollen bearbeiten können:
kubectl -n rbac get role edit -oyaml apiVersion: rbac.authorization.k8s.io/v1 kind: Role metadata: name: edit namespace: rbac rules: - apiGroups: - rbac.authorization.k8s.io resources: - roles verbs: - update - patch
Versuchen wir, ein neues Verb hinzuzufügen, list
, das wir bereits in der Ansichtsrolle verwendet haben:
kubectl -n rbac edit role edit OK apiVersion: rbac.authorization.k8s.io/v1 kind: Role metadata: name: edit namespace: rbac rules: - apiGroups: - rbac.authorization.k8s.io resources: - roles verbs: - update - patch - list # the new verb we added
Success.
Versuchen wir nun, ein neues Verb hinzuzufügen, nämlich delete, das wir in anderen Rollen noch nicht verwendet haben:
kubectl -n rbac edit role edit apiVersion: rbac.authorization.k8s.io/v1 kind: Role metadata: name: edit namespace: rbac rules: - apiGroups: - rbac.authorization.k8s.io resources: - roles verbs: - update - patch - delete # trying to add a new verb error: roles.rbac.authorization.k8s.io "edit" could not be patched: roles.rbac.authorization.k8s.io "edit" is forbidden: user "system:serviceaccount:rbac:privesc" (groups=["system:serviceaccounts" "system:serviceaccounts:rbac" "system:authenticated"]) is attempting to grant RBAC permissions not currently held: {APIGroups:["rbac.authorization.k8s.io"], Resources:["roles"], Verbs:["delete"]}
Dies bestätigt, dass Kubernetes es Benutzern oder Dienstkonten nicht erlaubt, neue Berechtigungen hinzuzufügen, wenn sie diese nicht bereits haben – nur wenn Benutzer oder Dienstkonten an Rollen mit solchen Berechtigungen gebunden sind.
Erweitern wir die privesc SA-Berechtigungen. Dazu verwenden wir die Admin-Konfiguration und fügen eine neue Rolle mit dem Verb escalate
hinzu:
KUBECONFIG=~/.kube/config kubectl -n rbac create role escalate --verb=escalate --resource=role
Jetzt binden wir die privesc SA an die neue Rolle:
KUBECONFIG=~/.kube/config kubectl -n rbac create rolebinding escalate --role=escalate --serviceaccount=rbac:privesc
Prüfen Sie noch einmal, ob wir der Rolle ein neues Verb hinzufügen können:
kubectl -n rbac edit role edit apiVersion: rbac.authorization.k8s.io/v1 kind: Role metadata: name: edit namespace: rbac rules: - apiGroups: - rbac.authorization.k8s.io resources: - roles verbs: - update - patch - delete # the new verb we added role.rbac.authorization.k8s.io/edit edited
Jetzt funktioniert es. Der Benutzer kann die SA-Rechte erweitern, indem er die bestehende Rolle bearbeitet. Das bedeutet, dass das Verb escalate
die Rechte eines Admins, einschließlich der Rechte eines Namespace-Admins oder sogar eines Cluster-Admins, verleiht.
Das bind
Verb erlaubt es dem Benutzer die Bearbeitung der RoleBinding
oder ClusterRoleBinding
für Berechtigungserweiterung, ähnlich wie bei escalate
die es dem Benutzer ermöglicht, die Role
oder ClusterRole
.
In der folgenden Abbildung kann die SA mit der Rollenbindung, die die Verbs update
, patch
und create
enthält, erst dann delete
hinzufügen, wenn wir eine neue Rolle mit dem Verb bind
erstellen.
Schauen wir uns nun genauer an, wie das funktioniert.
Ändern wir die kubeconfig-Datei auf admin:
export KUBECONFIG=~/.kube/config
Entfernen Sie alte Rollen und Bindungen:
kubectl -n rbac delete rolebinding view edit escalate kubectl -n rbac delete role view edit escalate
Erlauben Sie der SA, die Rollenbindung und die Pod-Ressourcen im Namenspace anzuzeigen und zu bearbeiten:
kubectl -n rbac create role view --verb=list,watch,get --resource=role,rolebinding,pod kubectl -n rbac create rolebinding view --role=view --serviceaccount=rbac:privesc kubectl -n rbac create role edit --verb=update,patch,create --resource=rolebinding,pod kubectl -n rbac create rolebinding edit --role=edit --serviceaccount=rbac:privesc
Erstellen Sie separate Rollen für die Arbeit mit Pods, aber binden Sie die Rolle trotzdem nicht:
kubectl -n rbac create role pod-view-edit --verb=get,list,watch,update,patch --resource=pod kubectl -n rbac create role delete-pod --verb=delete --resource=pod
Ändern Sie die kubeconfig auf das SA-Recht und versuchen Sie, die Rollenbindung zu bearbeiten:
export KUBECONFIG=~/.kube/rbac.conf kubectl -n rbac create rolebinding pod-view-edit --role=pod-view-edit --serviceaccount=rbac:privesc rolebinding.rbac.authorization.k8s.io/pod-view-edit created
Die neue Rolle wurde erfolgreich an die SA gebunden. Beachten Sie, dass die Rolle pod-view-edit
Verbs und Ressourcen enthält, die bereits durch die Rollenbindung view
und edit
an die SA gebunden wurden.
Versuchen wir nun, eine Rolle mit einem neuen Verb zu binden, delete
, das in den an die SA gebundenen Rollen fehlt:
kubectl -n rbac create rolebinding delete-pod --role=delete-pod --serviceaccount=rbac:privesc error: failed to create rolebinding: rolebindings.rbac.authorization.k8s.io "delete-pod" is forbidden: user "system:serviceaccount:rbac:privesc" (groups=["system:serviceaccounts" "system:serviceaccounts:rbac" "system:authenticated"]) is attempting to grant RBAC permissions not currently held: {APIGroups:[""], Resources:["pods"], Verbs:["delete"]}
Kubernetes lässt dies nicht zu, obwohl wir die Berechtigung haben, Rollenbindungen zu bearbeiten und zu erstellen. Aber das können wir mit dem Verb bind
ändern. Verwenden wir dazu die Admin-Konfiguration:
KUBECONFIG=~/.kube/config kubectl -n rbac create role bind --verb=bind --resource=role role.rbac.authorization.k8s.io/bind created KUBECONFIG=~/.kube/config kubectl -n rbac create rolebinding bind --role=bind --serviceaccount=rbac:privesc rolebinding.rbac.authorization.k8s.io/bind created
Versuchen Sie noch einmal, eine Rollenbindung mit dem neuen Verb delete
zu erstellen:
kubectl -n rbac create rolebinding delete-pod --role=delete-pod --serviceaccount=rbac:privesc rolebinding.rbac.authorization.k8s.io/delete-pod created
Jetzt funktioniert es. Mit dem Verb bind
kann die SA also jede Rolle an sich selbst oder an jeden Benutzer binden.
Das Verb impersonate
in K8s ist wie sudo
in Linux. Wenn Benutzer Zugriff auf impersonate
haben, können sie sich als andere Benutzer authentifizieren und Befehle in deren Namen ausführen. kubectl verfügt über die Optionen --as
, --as-group
und --as-uid
, die es ermöglichen, Befehle unter einem anderen Benutzer, einer anderen Gruppe bzw. einer anderen UID (einem universell eindeutigen Bezeichner) auszuführen. Wenn ein Benutzer Impersonation-Berechtigungen erhält, wird er zum Namespace-Admin oder – wenn es im Namespace ein cluster-admin-Dienstkonto gibt – sogar zum Cluster-Admin.
Impersonate ist hilfreich, um die an einen Benutzer delegierten RBAC-Berechtigungen zu überprüfen: Ein Administrator sollte einen Befehl gemäß der Vorlage kubectl auth can-i --as=$USERNAME -n $NAMESPACE $VERB $RESOURCE
ausführen und prüfen, ob die Berechtigung wie vorgesehen funktioniert.
In unserem Beispiel würde die SA keine Informationen über Pods im rbac-Namensraum erhalten, wenn sie nur kubectl -n rbac get pod
ausführt. Aber es wird möglich, wenn es eine Rolle mit dem Verb impersonate
gibt:
kubectl auth can-i get pod -n rbac --as=system:serviceaccount:rbac:privesc yes
Erstellen wir ein neues Dienstkonto, impersonator, im rbac-Namensraum; diese SA wird keine Berechtigungen haben:
KUBECONFIG=~/.kube/config kubectl -n rbac create sa impersonator serviceaccount/impersonator created
Erstellen Sie nun eine Rolle mit dem Verb impersonate und einer Rollenbindung:
KUBECONFIG=~/.kube/config kubectl -n rbac create role impersonate --resource=serviceaccounts --verb=impersonate --resource-name=privesc
(Sehen Sie sich den Parameter --resource-name
im obigen Befehl an: er erlaubt nur Impersonation als privesc SA.)
role.rbac.authorization.k8s.io/impersonate created KUBECONFIG=~/.kube/config kubectl -n rbac create rolebinding impersonator --role=impersonate --serviceaccount=rbac:impersonator rolebinding.rbac.authorization.k8s.io/impersonator created
Erstellen Sie einen neuen Kontext:
TOKEN=$(KUBECONFIG=~/.kube/config kubectl -n rbac create token impersonator --duration=8h) kubectl config set-credentials impersonate --token=$TOKEN User "impersonate" set. kubectl config set-context impersonate@kubernetes --user=impersonate --cluster=kubernetes Context "impersonate@kubernetes" created. kubectl config use-context impersonate@kubernetes Switched to context "impersonate@kubernetes".
Überprüfen Sie die Berechtigungen:
kubectl auth can-i --list -n rbac Resources Non-Resource URLs Resource Names Verbs selfsubjectaccessreviews.authorization.k8s.io [] [] [create] selfsubjectrulesreviews.authorization.k8s.io [] [] [create] ... serviceaccounts [] [privesc] [impersonate]
Neben impersonate
gibt es keine weiteren Berechtigungen, wie in der Rolle angegeben. Wenn wir jedoch die impersonator
SA als privesc
SA ausgeben, können wir sehen, dass wir dieselben Berechtigungen erhalten, die die privesc
SA hat:
kubectl auth can-i --list -n rbac --as=system:serviceaccount:rbac:privesc Resources Non-Resource URLs Resource Names Verbs roles.rbac.authorization.k8s.io [] [edit] [bind escalate] selfsubjectaccessreviews.authorization.k8s.io [] [] [create] selfsubjectrulesreviews.authorization.k8s.io [] [] [create] pods [] [] [get list watch update patch delete create] ... rolebindings.rbac.authorization.k8s.io [] [] [list watch get update patch create bind escalate] roles.rbac.authorization.k8s.io [] [] [list watch get update patch create bind escalate] configmaps [] [] [update patch create delete] secrets [] [] [update patch create delete]
Somit hat die impersonate
SA alle ihre eigenen Privilegien und alle Privilegien der SA, die sie verkörpert, einschließlich derjenigen, die ein Namespace-Admin hat.
Die Verbs escalate
, bind
und impersonate
können zur Erstellung flexibler Berechtigungen verwendet werden, die eine granulare Verwaltung des Zugriffs auf die Infrastruktur von K8 ermöglichen. Sie öffnen aber auch Tür und Tor für eine böswillige Nutzung, da sie in einigen Fällen einem Benutzer den Zugriff auf wichtige Infrastrukturkomponenten mit Administratorrechten ermöglichen.
Drei Vorgehensweisen können helfen, die potenziellen Gefahren einer missbräuchlichen oder böswilligen Verwendung dieser Verbs zu entschärfen:
resourceNames
in den Manifests Role
und ClusterRole
Betrachten wir sie der Reihe nach.
Um unbefugten Zugriff und RBAC-Fehlkonfigurationen zu verhindern, sollten Sie die RBAC-Manifests Ihres Clusters regelmäßig überprüfen:
kubectl get clusterrole -A -oyaml | yq '.items[] | select (.rules[].verbs[] | contains("esalate" | "bind" | "impersonate")) | .metadata.name' kubectl get role -A -oyaml | yq '.items[] | select (.rules[].verbs[] | contains("esalate" | "bind" | "impersonate")) | .metadata.name'
Um die Verwendung von escalate
, bind
, impersonate
oder beliebige andere Verben, konfigurieren Sie die resourceNames
Feld in der Role
und ClusterRole
Manifests. Dort können – und sollten – Sie die Namen der Ressourcen eingeben, die verwendet werden können.
Hier ist ein Beispiel für ein ClusterRole
, das die Erstellung eines ClusterRoleBinding
mit roleRef
named edit
und view
ermöglicht:
apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRole metadata: name: role-grantor rules: - apiGroups: ["rbac.authorization.k8s.io"] resources: ["clusterroles"] verbs: ["bind"] resourceNames: ["edit","view"]
Das Gleiche gilt für „escalate“ und „impersonate“.
Beachten Sie, dass im Fall von bind
ein Administrator die Berechtigungen in einer Rolle festlegt und die Benutzer diese Rolle nur an sich selbst binden können, wenn dies in resourceNames
erlaubt ist. Mit escalate
können Benutzer beliebige Parameter innerhalb einer Rolle schreiben und Admins eines Namespaces oder Clusters werden. So schränkt bind
die Nutzer ein, während escalate
ihnen mehr Möglichkeiten bietet. Beachten Sie dies, wenn Sie diese Berechtigungen erteilen müssen.
Ziehen Sie den Einsatz automatischer Systeme in Betracht, die das Erstellen oder Bearbeiten von Rollen mit verdächtigen Inhalten überwachen, z.B. Falco oder Tetragon.
Sie können Kubernetes-Audit-Protokolle auch an ein Protokollverwaltungssystem wie Gcore Managed Logging weiterleiten, das für die Analyse und Analyse von K8s-Protokollen nützlich ist. Um ein versehentliches Löschen von Ressourcen zu verhindern, erstellen Sie ein separates Dienstkonto mit dem Verb delete
und erlauben Sie den Benutzern, nur dieses Dienstkonto zu verkörpern. Das ist das Prinzip des geringsten Widerstandes. Um diesen Prozess zu vereinfachen, können Sie das kubectl-Plugin kubectl-sudo verwenden.
Bei Gcore nutzen wir diese Methoden, um unseren Managed Kubernetes-Service sicherer zu machen. Wir empfehlen allen unseren Kunden, dasselbe zu tun. Die Nutzung von Managed Services garantiert nicht, dass Ihre Dienste standardmäßig 100% sicher sind, aber bei Gcore tun wir alles, um den Schutz unserer Kunden zu gewährleisten, einschließlich der Förderung von RBAC Best Practices.
Mit den Verben escalate
, bind
und impersonate
können Administratoren den Zugriff auf die K8-Infrastruktur flexibel verwalten und Benutzern die Möglichkeit geben, ihre Berechtigungen zu erweitern. Dies sind mächtige Werkzeuge, die bei Missbrauch erheblichen Schaden an einem K8s-Cluster anrichten können. Prüfen Sie jede Verwendung dieser Verben sorgfältig und stellen Sie sicher, dass die Regel der geringsten Zugriffsberechtigung befolgt wird: Benutzer müssen die minimalen Rechte haben, die für den Betrieb erforderlich sind, nicht mehr.
Suchen Sie nach einer einfachen Möglichkeit, Ihre K8s-Cluster zu verwalten? Testen Sie Gcore Managed Kubernetes. Wir bieten virtuelle Maschinen und Bare-Metal-Server mit GPU-Worker-Nodes zur Steigerung Ihrer KI/ML-Workloads. Die Preise für Worker Nodes sind dieselben wie für unsere virtuellen Maschinen und Bare Metal Server. Wir bieten Ihnen ein kostenloses, production-grade Cluster-Management mit einem SLA von 99,9 %, damit Sie sich keine Sorgen machen müssen.
]]>Der Einsatz von KI-Modellen am Edge bedeutet, dass die Daten während der KI-Inferenz vor Ort oder in der Nähe des Benutzers verarbeitet werden, was eine Datenverarbeitung und Entscheidungsfindung in unmittelbarer Nähe und in Echtzeit ermöglicht. Die KI-Inferenz ist der Prozess der Anwendung des Wissens eines trainierten Modells auf neue, ungesehene Daten und wird am Edge deutlich effizienter. KI mit geringer Latenz ist für Unternehmen unerlässlich, die auf aktuelle Datenanalysen angewiesen sind, um Entscheidungen zu treffen, das Kundenerlebnis zu verbessern und sich einen Wettbewerbsvorteil zu verschaffen.
Durch die Edge-Inferenz werden die Verzögerungen beseitigt, die bei dem traditionellen Modell, das der Edge-Inferenz vorausging, für die Übertragung von Informationen an weit entfernte Cloud-Server charakteristisch waren. Dies geschieht durch die Verringerung der physischen Entfernung zwischen dem Gerät, das die KI-Inferenz anfordert, und dem Server, auf dem die Inferenz durchgeführt wird. Dadurch können die Anwendungen fast in Echtzeit auf Änderungen oder Eingaben reagieren.
Die Umstellung auf Edge-KI bietet für Unternehmen aller Branchen erhebliche Vorteile. (Im nächsten Abschnitt werden wir uns mit den branchenspezifischen Vorteilen und Anwendungsfällen befassen.)
Edge KI revolutioniert Geschäftsabläufe, indem Daten nahezu sofort an ihrem Entstehungsort oder in dessen Nähe verarbeitet werden. Dies ist entscheidend für Branchen, in denen Zeit eine wesentliche Rolle spielt, wie Gaming, Gesundheitswesen und Unterhaltung. Diese Technologie verkürzt die Zeitspanne zwischen Datenerfassung und -analyse drastisch, liefert sofort verwertbare Informationen und ermöglicht es Unternehmen, Einblicke in Echtzeit zu gewinnen, rasche Entscheidungen zu treffen und Abläufe zu optimieren.
Durch die lokale Verarbeitung von Daten minimiert die Edge KI die Datenmenge, die über Netzwerke übertragen werden muss. Durch diese Verringerung der Datenübertragung werden Netzüberlastungen gemindert und die Systemleistung verbessert, was für Umgebungen mit hohem Datenverkehr von entscheidender Bedeutung ist.
Für Unternehmen bedeutet dies, dass der Betrieb auch in Spitzenzeiten unterbrechungsfrei und reaktionsschnell bleibt, ohne dass kostspielige Netzaufrüstungen erforderlich sind. Dies führt direkt zu greifbaren finanziellen Einsparungen in Kombination mit einer zuverlässigeren Servicebereitstellung für die Kunden – ein Win-Win-Szenario durch Inference at the Edge.
Edge KI hilft Unternehmen, den Bedarf an häufigen Datentransfers zu Cloud-Diensten zu minimieren, was den Bedarf an Bandbreite, Infrastruktur und Speicherplatz für ein umfangreiches Datenmanagement erheblich senkt. Dadurch wird der gesamte Datenverarbeitungsprozess kosteneffizienter.
Das Design von Edge KI ermöglicht den Betrieb auch ohne ständigen Internetzugang, indem KI-Anwendungen auf lokalen Geräten bereitgestellt werden, ohne dass eine Verbindung zu entfernten Servern erforderlich ist. Dies gewährleistet eine stabile Leistung und Zuverlässigkeit, so dass Unternehmen unabhängig von geografischen oder infrastrukturellen Beschränkungen hohe Servicestandards und betriebliche Kontinuität aufrechterhalten können.
Trotz der intensiven Nutzung und des Teilens von Erlebnissen auf Plattformen wie TikTok und X sind die Nutzer heutzutage zunehmend datenschutzbewusst. Dafür gibt es gute Gründe, denn die Zahl der Datenschutzverletzungen nimmt zu. Sie kosten Unternehmen aller Größenordnungen Millionen und gefährden die Daten von Einzelpersonen. Beispielsweise führte der weithin bekannte T-Mobile-Datenverstoß im Jahr 2022 zu einem Unternehmensschaden von 350 Millionen US-Dollar. Unternehmen, die KI-gestützte Funktionen anbieten, haben ein starkes Interesse an der Teilhabe der Nutzer und versprechen ihnen in der Regel die Kontrolle über die Nutzung der Modelle, die Wahrung des Datenschutzes und das Eigentum an den Inhalten. Die Verlagerung von KI-Daten an den Edge kann zu solchen Datenschutzbemühungen beitragen.
Die lokale Datenverarbeitung von Edge KI bedeutet, dass die Datenanalyse direkt auf dem Gerät erfolgen kann, auf dem die Daten gesammelt werden, und nicht an entfernte Server gesendet werden muss. Diese Nähe verringert das Risiko des Abfangens von Daten oder des unbefugten Zugriffs erheblich, da weniger Daten über die Netze übertragen werden.
Die lokale Verarbeitung von Daten – entweder auf einzelnen Geräten oder auf einem nahegelegenen Server – erleichtert die Einhaltung von Datenschutzbestimmungen und Sicherheitsprotokollen wie der DSGVO. Solche Vorschriften verlangen, dass sensible Daten innerhalb bestimmter Regionen aufbewahrt werden. Edge KI erreicht dieses hohe Maß an Compliance, indem es Unternehmen ermöglicht, Daten in derselben Region oder demselben Land zu verarbeiten, in dem sie erzeugt wurden.
So könnte beispielsweise ein weltweit tätiges KI-Unternehmen die Daten eines französischen Nutzers von einem französischen KI-Server verarbeiten lassen und die Daten eines kalifornischen Nutzers von einem Server in Kalifornien. Auf diese Weise würde die Datenverarbeitung der beiden Nutzer automatisch den jeweiligen lokalen Gesetzen entsprechen: Die des französischen Nutzers würde gemäß dem europäischen Standard DSGVO erfolgen, und die des kalifornischen Nutzers gemäß CCPA und CPRA.
Während Edge KI in allen Branchen erhebliche Vorteile bietet, ist ihre Einführung in einigen Anwendungsfällen kritischer als in anderen, insbesondere in solchen, die Geschwindigkeit und Effizienz erfordern, um einen Wettbewerbsvorteil zu erlangen und zu halten. Schauen wir uns einige Branchen an, in denen Inference at the Edge besonders wichtig ist.
In der Unterhaltungsbranche ermöglicht die KI den Anbietern, den Nutzern hochgradig personalisierte Inhalte und interaktive Funktionen direkt anzubieten. Es bietet erheblichen Mehrwert in Form von Live-Sport-Updates, kontextbezogenen Spielerinformationen, interaktiven Filmfunktionen, Echtzeitanalysen von Benutzerpräferenzen und maßgeschneiderten Empfehlungen, indem es die Bandbreitennutzung optimiert und die Verzögerungszeiten eliminiert, die mit der Nutzung entfernter Server verbunden sind. Diese Funktionen fördern eine stärkere Einbindung der Zuschauer und ein intensiveres und angenehmeres Unterhaltungserlebnis.
Stellen Sie sich ein Unternehmen vor, das personalisierte Inhalte revolutioniert, indem es den Nutzern ermöglicht, mit Hilfe künstlicher Intelligenz schöne, individuell gestaltete Bilder zu erstellen, in die persönliche Elemente wie Fotos, die sie von sich selbst, von Produkten, Haustieren oder anderen persönlichen Gegenständen integriert werden können. Anwendungen wie diese gibt es bereits.
Die Nutzer von heute erwarten bei ihren digitalen Interaktionen sofortige Antworten. Um seine Nutzer zu binden und zu begeistern, muss ein solches Unternehmen Wege finden, die Erwartungen seiner Nutzer zu erfüllen, sonst riskiert es, sie an die Konkurrenz zu verlieren.
Die lokale Verarbeitung dieser unterhaltungsrelevanten Daten zur Bilderzeugung erhöht die Sicherheit, da sensible Informationen nicht über das Internet zu weit entfernten Servern übertragen werden müssen. Durch die Verarbeitung von Benutzeranfragen direkt auf den Geräten oder nahegelegenen Servern kann die Edge-KI zudem Verzögerungen bei der Bilderzeugung minimieren, was die Anpassung von Bildern beschleunigt und eine Interaktion mit der Anwendung in Echtzeit ermöglicht. Das Ergebnis: eine tiefere, zufriedenstellendere Verbindung zwischen den Nutzern und der Technologie.
In der Fertigung modernisiert die KI die vorausschauende Wartung und Qualitätskontrolle, indem sie intelligente Verarbeitungsfunktionen direkt in die Fabrikhalle bringt. Dies ermöglicht eine Echtzeit-Überwachung von Maschinen und Anlagen, wobei die fortschrittliche maschinelle Bildverarbeitung und die kontinuierliche und detaillierte Analyse von Vibrations-, Temperatur- und akustischen Daten von Maschinen zur Erkennung von Qualitätsabweichungen genutzt werden. Die praktische Auswirkung ist eine Verringerung der Defekte und eine Reduzierung der Ausfallzeiten durch vorausschauende Wartung. Inference at the Edge ermöglicht die dafür erforderliche Echtzeit-Reaktion.
Große Unternehmen haben bereits KI auf diese Weise eingesetzt. So werden beispielsweise die chemischen Mischtanks von Procter & Gamble von KI-Lösungen überwacht, die die Abteilungsleiter sofort über Qualitätsabweichungen benachrichtigen und so verhindern, dass fehlerhafte Produkte die Fertigungsstraße weiter durchlaufen. In ähnlicher Weise setzt BMW eine Kombination aus Edge-Computing und KI ein, um einen Echtzeit-Überblick über seine Montagelinien zu erhalten und so die Effizienz und Sicherheit seiner Fertigungsprozesse zu gewährleisten.
Fertigungsanwendungen für Inference at the Edge der Wertschöpfungskette senken die Betriebskosten erheblich, indem sie die Wartung der Anlagen und die Qualitätskontrolle optimieren. Die Fähigkeit der Technologie, Daten vor Ort oder in der Nähe zu verarbeiten, verwandelt die herkömmliche Fertigung in einen hochflexiblen, kosteneffizienten und zuverlässigen Betrieb und setzt weltweit neue Maßstäbe für die Branche.
Im Gesundheitswesen geht die KI-Inference at the Edge auf wesentliche Bedenken wie Datenschutz und Sicherheit ein, indem sie strenge Datenverschlüsselungs- und Anonymisierungstechniken verwendet und so sicherstellt, dass Patientendaten vertraulich bleiben. Die Kompatibilität von Edge KI mit bestehenden IT-Systemen im Gesundheitswesen, die durch interoperable Standards und APIs erreicht wird, ermöglicht eine nahtlose Integration in bestehende Infrastrukturen. Insgesamt verbessert Edge KI die Gesundheitsversorgung, indem es sofortige, fundierte medizinische Entscheidungen auf der Grundlage von Echtzeitdaten ermöglicht.
Gcore hat sich mit einem Gesundheitsdienstleister zusammengeschlossen, der sensible medizinische Daten verarbeiten muss, um eine KI-basierte Zweitmeinung zu erhalten, insbesondere bei onkologischen Fällen. Aufgrund des Patientengeheimnisses konnten die Daten das Land nicht verlassen. Daher war die beste Option des Gesundheitsdienstleisters, um die Einhaltung der Vorschriften zu gewährleisten und gleichzeitig eine hohe Leistung beizubehalten, die Implementierung einer Edge-Lösung, die mit ihrem internen System und dem KI-Modell verbunden ist. Mit mehr als 180 strategischen Standorten weltweit und der bewährten Einhaltung der DSGVO- und ISO 27001-Standards konnten wir dem Gesundheitsdienstleister den benötigten KI-Vorteil bieten.
Das Ergebnis:
Im Einzelhandel sorgt KI für ein präzises Bestandsmanagement und personalisiert das Kundenerlebnis in einer Vielzahl von Bereichen. Durch die Echtzeitanalyse von Daten aus Sensoren und Kameras sagt Edge KI den Nachschubbedarf genau voraus und stellt sicher, dass die Regale immer mit den richtigen Produkten gefüllt sind. Diese Technologie unterstützt auch intelligente Kassensysteme, die den Einkaufsprozess rationalisieren, indem sie das manuelle Scannen überflüssig machen und so die Wartezeiten verkürzen und die Kundenzufriedenheit erhöhen. Handels-Chatbots und KI-Kundenservice bieten diese Vorteile im E-Commerce.
Inference am Edge ermöglicht den Einsatz von Computer Vision, um Kundenverhalten und -präferenzen in Echtzeit zu verstehen. So können Händler ihre Ladengestaltung und Produktplatzierungen effektiv optimieren. Diese Erkenntnisse tragen dazu bei, eine Einkaufsumgebung zu schaffen, die zu Käufen anregt und die Kundenreise insgesamt verbessert. Händler, die KI nutzen, können sich dynamisch an Verbrauchertrends und -nachfragen anpassen und so flexibler und reaktionsschneller agieren.
KI Inferencing at the Edge bietet Unternehmen verschiedener Branchen die Möglichkeit, Daten in Echtzeit und direkt an der Quelle zu verarbeiten. Diese Fähigkeit reduziert die Latenzzeit und verbessert gleichzeitig die betriebliche Effizienz, die Sicherheit und die Kundenzufriedenheit, so dass Unternehmen einen neuen Standard bei der Nutzung von Technologie setzen können, um einen Wettbewerbsvorteil zu erzielen.
Gcore steht an der Spitze dieser technologischen Entwicklung und ermöglicht die KI-Inference am Edge eines globalen Netzwerks, das darauf ausgelegt ist, die Latenz zu minimieren und die Leistung zu maximieren. Mit fortschrittlichen L40S GPU-basierten Rechenressourcen und einer umfassenden Liste von Open-Source-Modellen bietet Gcore Edge KI eine robuste, hochmoderne Plattform für den Einsatz großer KI-Modelle.
]]>Die NVIDIA A100, H100, L40S und H200 gehören zu den fortschrittlichsten und leistungsstärksten GPUs im Sortiment des Unternehmens. Sie wurden speziell für professionelle Anwendungen, Unternehmen und Rechenzentren entwickelt und verfügen über Architekturen und Technologien, die für Rechenaufgaben, KI und Datenverarbeitung optimiert sind. Schauen wir uns an, wie sie in Bezug auf die wichtigsten technischen Daten im Vergleich zueinander abschneiden.
Spezifikation | A100 | H100 | L40S | H200 |
Architektur | Ampere | Hopper | Ada Lovelace | Hopper |
Erscheinungsjahr | 2020 | 2022 | 2023 | 2024 |
FP64 | 9,7 TFLOPS | 34 TFLOPS | Keine Daten verfügbar | 34 TFLOPS |
FP64 Tensor Core | 19,5 TFLOPS | 67 TFLOPS | Keine Daten verfügbar | 67 TFLOPS |
FP32 | 19,5 TFLOPS | 67 TFLOPS | 91,6 TFLOPS | 67 TFLOPS |
TF32 Tensor Core | 312 TFLOPS | 989 TFLOPS | 183 | 366* TFLOPS | 989 TFLOPS* |
BFLOAT16 Tensor Core | 624 TFLOPS | 1.979 TFLOPS | 362,05 | 733* TFLOPS | 1.979 TFLOPS* |
FP16 Tensor Core | 624 TFLOPS | 1.979 TFLOPS | 362,05 | 733* TFLOPS | 1.979 TFLOPS* |
FP8 Tensor Core | Nicht anwendbar | 3.958 TFLOPS | 733 | 1.466* TFLOPS | 3.958 TFLOPS* |
INT8 Tensor Core | 1248 TOPS | 3.958 TOPS | 733 | 1.466* TFLOPS | 3.958 TFLOPS* |
INT4 Tensor Core | Daten nicht verfügbar | Daten nicht verfügbar | 733 | 1.466* TFLOPS | Daten nicht verfügbar |
GPU-Speicher | 80 GB HBM2e | 80 GB | 48 GB GDDR6 mit ECC | 141 GB HBM3e |
GPU-Speicherbandbreite | 2.039 Gbps | 3,35 Tbps | 864 Gbps | 4,8 Tbps |
Dekodierer | Nicht anwendbar | 7 NVDEC 7 JPEG | Nicht anwendbar | 7 NVDEC 7 JPEG |
Max. Thermal Design Power (TDP) (maximal abgegebene Wärmeleistung eines Prozessors) | 400 W | Bis zu 700 W (konfigurierbar) | 350 W | Bis zu 700 W (konfigurierbar) |
Multi-Instance GPUs | Bis zu 7 MIGs @ 10 GB | Bis zu jeweils 7 MIGs @ 10 GB | Nein | Bis zu 7 MIGs mit je 16,5 GB |
Formfaktor | SXM | SXM | 4,4″ (H) x 10,5″ (L), Doppelsteckplatz | SXM** |
Interconnect | NVLink: 600 GB/s PCIe Gen4: 64 GB/s | NVLink: 900 GB/s PCIe Gen5: 128 GB/s | PCIe Gen4 x16: 64 GB/s bidirektional | NVIDIA NVLink®: 900 GB/s PCIe Gen5: 128 GB/s |
Serveroptionen | NVIDIA HGX![]() ![]() | NVIDIA HGX H100 Partner und NVIDIA-Certified Systems![]() | Keine Daten verfügbar | NVIDIA HGX![]() ![]() |
NVIDIA AI Enterprise | Enthalten | Add-on | Keine Daten verfügbar | Add-on |
CUDA® Cores | 6.912 | 16.896 | 18.176 | Keine Daten verfügbar |
* mit Sparcity.
** Vorläufige Spezifikation. Änderungen sind vorbehalten.
Quelle: https://resources.nvidia.com/l/en-us-gpu
Basierend auf dem obigen Vergleich erwarten wir, dass die H200 die vorherige und aktuelle Generation der NVIDIA-GPUs für Rechenzentren in allen Anwendungsbereichen übertreffen wird. Die aktuelle Generation, die H100, ist der H200 sehr ähnlich und bietet nahezu die gleiche Leistung bei Multi-Präzisionsberechnungen. Die H200 wird Verbesserungen bieten. Die H100 bleibt jedoch eine Option erster Wahl. Der A100 ist im Vergleich zu seinen Nachfolgern der leistungsschwächste Grafikprozessor, bietet aber dennoch eine solide Leistung für bestimmte Aufgaben.
Der L40S unterscheidet sich vom A100 und vom H100 dadurch, dass er RT-Kerne der dritten Generation (142) mit einer RT-Kernleistung von 212 TFLOPS und 568 Tensor-Kerne der vierten Generation enthält. Allerdings liegen uns noch keine ausreichenden Informationen über diese Parameter für den H200 vor. Es bleibt also abzuwarten, wie sich der L40S und der H200 im Vergleich zueinander schlagen werden.
Schauen wir uns die einzelnen GPUs nacheinander an, um mehr über ihre Funktionen, ihre Leistung und die Anwendungsbereiche zu erfahren, in denen sie glänzen.
Der NVIDIA A100-Grafikprozessor war der erste Grafikprozessor mit der Ampere-Architektur im Jahr 2020. Vor der Veröffentlichung des H100 im Jahr 2022 war der A100 eine führende GPU-Plattform. Dank verbesserter Tensor Cores für die künstliche Intelligenz, einer höheren Anzahl von CUDA-Kernen für die parallele Verarbeitung, verbessertem Speicher und der schnellsten Speicherbandbreite aller Zeiten (2 Tbps) bietet er einen erheblichen Leistungssprung im Vergleich zu seinen Vorgängern. Er unterstützt Multi-Instance GPU (MIG), wodurch eine einzelne A100 GPU in kleinere, unabhängige GPUs partitioniert werden kann, um die Ressourcenzuweisung und Effizienz in Cloud- und Rechenzentrumsumgebungen zu maximieren.
Obwohl der A100-Grafikprozessor von neueren Modellen in seiner Leistung übertroffen wird, ist er aufgrund seiner leistungsstarken Tensor Cores und seines hohen Rechendurchsatzes nach wie vor eine gute Wahl für das Traininieren komplexer neuronaler Netze im Rahmen von Deep Learning- und KI-Lernaufgaben. Er eignet sich auch hervorragend für KI-Inferenzaufgaben wie Spracherkennung, Bildklassifizierung, Empfehlungssysteme, Datenanalyse und Big Data-Verarbeitung, wissenschaftliche Berechnungen und Simulationen sowie für Aufgaben im High-Performance-Computing (HPC)-Bereich wie Genomsequenzierung und Arzneimittelentwicklung.
Der NVIDIA H100-Grafikprozessor kann die anspruchsvollsten KI-Workloads und umfangreiche Datenverarbeitungsaufgaben mühelos bewältigen. Der H100 enthält Tensor Cores der nächsten Generation, mit denen die KI-Trainings- und Inferenzgeschwindigkeiten drastisch erhöht werden. Er unterstützt auch Berechnungen mit doppelter Genauigkeit (FP64), einfacher Genauigkeit (FP32), halber Genauigkeit (FP16) und ganzzahligen (INT8) Aufgaben.
Der H100 bietet eine erhebliche Leistungssteigerung gegenüber dem A100, einschließlich der folgenden Vorteile:
Während der H100 ähnliche Anwendungsfälle und Leistungsmerkmale wie der A100 abdeckt, kann der H100-Grafikprozessor massive KI-Modelle verarbeiten, einschließlich solcher, die Transformator-Architekturen und komplexere wissenschaftliche Simulationen verwenden. Der H100-Grafikprozessor ist auch eine hervorragende Wahl für Echtzeit- und reaktionsschnelle KI-Anwendungen, wie z.B. fortschrittliche KI für Konversationen und Echtzeit-Übersetzungen.
Der L40S ist einer der leistungsstärksten NVIDIA-Grafikprozessoren, der im vierten Quartal 2023 auf den Markt kommt (und sofort in die Infrastruktur von Gcore integriert wird). Er ist für die nächste Generation von Rechenzentrums-Workloads ausgelegt: generative KI, Large Language Model (LLM)-Inferenz und -Training, 3D-Grafik, Rendering, Video und wissenschaftliche Simulationen.
Der NVIDIA L40S bietet eine bis zu 5-mal höhere Inferenzleistung und eine bis zu 2-mal höhere Echtzeit-Raytracing (RT)-Leistung im Vergleich zu Grafikprozessoren der vorherigen Generation, wie dem A100 und H100. Der 48 GB große GDDR6-Speicher mit ECC (Error Correcting Code) spielt eine entscheidende Rolle bei der Wahrung der Datenintegrität in Hochleistungs-Computing-Umgebungen. Außerdem ist er mit über 18.000 CUDA-Kernen ausgestattet – den parallelen Prozessoren, die für die Bewältigung komplexer Rechenaufgaben unerlässlich sind.
Die NVIDIA H200 ist das neueste Mitglied der NVIDIA-GPU-Reihe und soll im zweiten Quartal 2024 auf den Markt kommen. Sie ist die erste GPU, die 141 GB HBM3e-Speicher mit 4,8 Tbps bietet – fast doppelt so viel Kapazität wie die NVIDIA H100 Tensor Core GPU mit 1,4-mal mehr Speicherbandbreite. Letzteres ist für die Hochleistungsinformatik von Bedeutung und führt zu einer bis zu 110-mal schnelleren Zeit bis zur Ergebnisausgabe im Vergleich zu CPUs. Die Inferenzgeschwindigkeit ist doppelt so hoch wie die der H100-GPUs, wenn sie Llama2 70B-Inferenz verarbeiten.
Die H200 wird eine entscheidende Rolle bei der künstlichen Intelligenz der Dinge (AIoT) für Edge-Computing- und IoT-Anwendungen spielen. Sie können auch die höchste verfügbare GPU-Leistungdes H200 bei allen Anwendungs-Workloads erwarten, einschließlich LLP-Training und Inferenz für die größten Modelle mit mehr als 175 Milliarden Parametern, sowie bei generativen KI- und HPC-Anwendungen.
Basierend auf den ersten Spezifikationen und vorläufigen Leistungs-Benchmarks scheint der NVIDIA HGX H200 ein deutlicher Fortschritt gegenüber den A100- und H100-GPUs in Bezug auf Gesamtleistung, Energieeinsparungen und TCO (Total Cost of Ownership) zu sein. Wir hoffen, dass Ihnen dieser Vergleichsleitfaden bei der Auswahl des richtigen NVIDIA Grafikprozessors für Rechenzentren hilft, der sich ideal für die Lösung Ihrer geschäftlichen Herausforderungen in den Bereichen Deep Learning und künstliche Intelligenz, HPC, Grafik oder Virtualisierung im Rechenzentrum oder an der Peripherie eignet.
Gcore bietet verschiedene KI GPU-Konfigurationen für Bare-Metal-Server und virtuelle Maschinen an, die auf A100- und H100-GPUs basieren. Darüber hinaus ermöglicht unsere Managed Kubernetes-Plattform die Verwendung von Bare-Metal-Servern und virtuellen Maschinen mit A100- und H100-GPUs als Worker Nodes. In Kürze werden wir weitere KI GPU-Konfigurationen auf der Basis der neuesten L40S-GPUs hinzufügen!
]]>Wir haben auch keinen Testzeitraum für das Hosting. Es gibt jedoch ein Tool, mit dem Sie die Konnektivität prüfen und den besten Standort für Sie auswählen können, — Looking Glass.
Wir erzählen Ihnen, was es ist und wie Sie es verwenden können.
Looking Glass ist ein Tool zur Überprüfung des Routings. Es wird verwendet, um die Konnektivität des Servers vor dem Kauf zu überprüfen und um Störungen im Netzwerk zu suchen.
Welche Möglichkeiten der Dienst zu bieten hat:
Der Dienst hat eine einfache Benutzeroberfläche.
Man muss nur die Parameter und den Befehl angeben:
1. Wählen Sie den Standort aus, mit dem Sie die Konnektivität prüfen möchten. Die Liste enthält alle verfügbaren Standorte in unserem Hosting-Dienst.
2. Wählen Sie das Protokoll aus: IPv4 oder IPv6.
3. Geben Sie die IP-Adresse an, mit der kommuniziert werden soll.
4. Wählen Sie den gewünschten Befehl.
Schauen wir uns die einzelnen Befehle im Detail an.
Mit diesem Befehl können Sie überprüfen, wie lange es dauert, bis ein Paket von der angegebenen IP-Adresse zum Knoten übertragen wird.
Der Befehl verwendet das ICMP-Protokoll. Dies funktioniert auf folgende Weise:
Mit diesem Befehl können Sie nicht nur die Geschwindigkeit des Pakets ermitteln, sondern auch die Verfügbarkeit des Knotens als Ganzes überprüfen.
Schauen wir uns an, wie der Befehl in der Praxis funktioniert. Für den Test werden wir eine freie öffentliche Adresse 8.8.8.8. verwenden. Wie wählen den Befehl ping — und kommen zu dem folgenden Ergebnis:
PING 8.8.8.8 (8.8.8.8) 56(84) bytes of data. 64 bytes from 8.8.8.8: icmp_seq=1 ttl=119 time=0.325 ms 64 bytes from 8.8.8.8: icmp_seq=2 ttl=119 time=0.311 ms 64 bytes from 8.8.8.8: icmp_seq=3 ttl=119 time=0.315 ms 64 bytes from 8.8.8.8: icmp_seq=4 ttl=119 time=0.301 ms 64 bytes from 8.8.8.8: icmp_seq=5 ttl=119 time=0.309 ms --- 8.8.8.8 ping statistics --- 5 packets transmitted, 5 received, 0% packet loss, time 3999ms rtt min/avg/max/mdev = 0.301/0.312/0.325/0.013 ms
Hier sehen wir, dass 5 Pakete übertragen worden sind. Die Zeit, die für die Übertragung der einzelnen Pakete benötigt wurde, ist neben jedem Paket angegeben. Unten sehen Sie, dass alle 5 Pakete zugestellt wurden, kein Paket verloren ging und die Gesamtzeit für die Übertragung 3.999 ms betrug.
Anhand dieser Werte können Sie beurteilen, ob Sie mit der Geschwindigkeit zufrieden sind und der ausgewählte Host für Ihre Aufgabe geeignet ist.
Mit diesem Befehl können Sie alle Zwischenrouter auf dem Weg eines Pakets zum Zielhost sehen.
Jedes Paket hat eine TTL-Eigenschaft (time to live). Sie zeigt, wie lange ein Paket im Netz bleiben kann. Die TTL kann entweder die Anzahl der Sprünge (aus dem Englischen hop — ‘Sprung’)) von einem Router zum anderen oder die Zeit in Millisekunden sein.
Jeder Router, den ein Paket durchläuft, reduziert den TTL-Wert um eins. Erreicht der Wert Null, werden die Daten verworfen, und der Absender erhält die Antwort time exceeded (Zeit überschritten).
Traceroute verwendet dieses Merkmal, um die Anzahl der Zwischenhosts anzugeben:
Versuchen wir nun, den Befehl mit der gleichen Adresse anzuwenden. Das Ergebnis ist wie folgt:
traceroute to 8.8.8.8 (8.8.8.8), 15 hops max, 60 byte packets 1 vrrp.gcore.lu (92.38.169.130) [AS199524] 0.418 ms 2 92.38.168.2 (92.38.168.2) [AS199524] 0.378 ms 3 10.255.21.177 (10.255.21.177) [*] 0.366 ms 4 core1-0-0-8.lga.net.google.com (198.32.118.39) [AS10026] 0.848 ms 5 108.170.248.33 (108.170.248.33) [AS15169] 2.483 ms 6 172.253.70.17 (172.253.70.17) [AS15169] 1.419 ms 7 dns.google (8.8.8.8) [AS15169] 1.347 ms
Was wir hier sehen:
Dieser Befehl zeigt die besten BGP-Routen zum Ziel an.
BGP ist ein dynamisches Routing-Protokoll im Internet. Es verbindet autonome Systeme (AS) — Routersysteme und IP-Netze, die eine gemeinsame Routing-Politik im Internet verfolgen.
Mit BGP tauschen die AS Informationen über Netze und deren Verfügbarkeit aus. Auf der Grundlage dieser Daten wird die beste Route für die Pakete ermittelt.
Dies zeigt der Befehl show route for all an. Das Ergebnis sieht dann etwa so aus:
8.8.8.0/24 via 92.38.169.129 on eth0 [ipv4_1 2021-07-27 from 92.38.168.64] * (100/?) [AS15169i] Type: BGP unicast univ BGP.origin: IGP BGP.as_path: 15169 BGP.next_hop: 92.38.168.64 BGP.med: 0 BGP.local_pref: 90 BGP.community: (65000,1162) (65000,1728) (65000,1903) (65000,4212) (65101,2087) (65102,2000) (65103,840) (65104,19) BGP.large_community: (6695, 1000, 1) via 92.38.169.129 on eth0 [ipv4_2 2021-07-19 from 92.38.168.65] (100/?) [AS15169i] Type: BGP unicast univ BGP.origin: IGP BGP.as_path: 15169 BGP.next_hop: 92.38.168.65 BGP.med: 0 BGP.local_pref: 90 BGP.community: (24115,15169) (24115,65012) (65000,1105) (65000,1728) (65000,1903) (65000,4212) BGP.large_community: (24115,1000,1) (24115,1001,1) (24115,1002,1) (24115,1003,1) (24115,=1004,15169)
Der letzte in unserem Looking Glass verfügbare Befehl ist show route for (bgpmap). Er zeigt eine grafische Darstellung der BGP-Route, aus der hervorgeht, welche autonomen Systeme die Daten vom Host zur angegebenen IP-Adresse durchqueren müssen.
Das Ergebnis des Befehls sieht wie folgt aus:
Wir haben die gesamte Oberfläche unseres Looking Glass abgedeckt. Wir hoffen, dass es für Sie einfach zu bedienen ist. Und wenn Sie Fragen haben, können Sie sich jederzeit an unsere Manager wenden.
Wählen Sie virtuelle und dedizierte Server mit der besten Konnektivität und verbinden Sie diese mit unserem Hosting-Dienst.
Wählen Sie mit dem benutzerfreundlichen Konfigurator den Server, der perfekt auf Ihre Bedürfnisse zugeschnitten ist. Und Looking Glass hilft Ihnen, einen Standort mit guter Konnektivität zu finden.
Gcore Basic VM ist ein Hosting-Dienst, der die Flexibilität und Skalierbarkeit von virtuellen Servern zu einem außergewöhnlichen Preis bietet. Als Teil der Gcore Cloud-Plattform können Benutzer ihre Basic virtuellen Maschinen in einer Hochleistungsumgebung mit einer robusten Infrastruktur erstellen und verwalten. Gcore Basic bietet eine breite Palette von Funktionen und Werkzeugen, die für Benutzerfreundlichkeit und Ressourcenoptimierung sorgen. Es stehen umfangreiche Konfigurationsoptionen und Standorte zur Verfügung, mit denen Sie Ihre virtuellen Server an Ihre spezifischen Anwendungs- und Arbeitslastanforderungen anpassen können – und das alles bei minimalen Kosten.
Gcore Basic VM wurde für eine einfache Nutzung entwickelt. Die Erstellung und Konfiguration virtueller Server ist mit unserer benutzerfreundlichen Weboberfläche, die intuitive Tools für Ressourcenmanagement, Netzwerkkonfiguration, Überwachung und Skalierung bietet, ganz einfach. Selbst wenn Sie noch keine Erfahrung mit Cloud Computing haben, sind wir zuversichtlich, dass Sie sich schnell mit Gcore Basic vertraut machen können.
Werfen wir einen genaueren Blick auf einige der technischen Merkmale von Gcore Basic, um die Qualität und den Wert dieses Dienstes zu verstehen.
Gcore bietet eine zuverlässige und stabile Netzwerkinfrastruktur, die die hohe Verfügbarkeit und Leistung Ihrer Basic virtuellen Maschine gewährleistet. Ein qualitativ hochwertiges Netz hat mehrere wichtige Vorteile:
Gcore Basic VM bietet eine Reihe fortschrittlicher Netzwerkfunktionen, die Sie bei der Verwaltung und Konfiguration der Netzwerkinfrastruktur Ihrer virtuellen Maschine unterstützen. Mit diesen Funktionen können Sie die Netzwerkinfrastruktur Ihrer virtuellen Maschine im Hinblick auf Sicherheit, Leistung und Verfügbarkeit verwalten und konfigurieren. Hier finden Sie einige der fortschrittlichen Netzwerkfunktionen von Gcore Basic VM:
Gcore Basic VM bietet ein benutzerfreundliches Control Panel, mit dem Sie Ihre virtuelle Maschine verwalten und an Ihre Bedürfnisse anpassen können. Sie können eine virtuelle Maschine mit nur einem Klick einschalten, ausschalten oder neu starten. Außerdem können Sie die Ressourcen Ihrer Maschine – einschließlich Arbeitsspeicher, Prozessoren und Festplattenspeicher – ganz einfach skalieren, ein Backup Ihrer virtuellen Maschine erstellen und sie bei Bedarf wiederherstellen. Dies trägt dazu bei, Ihre Daten und Ihr System im Falle einer Störung oder eines unerwarteten Ereignisses zu schützen.
Gcore Basic VM bietet ein außergewöhnliches Preis-Leistungs-Verhältnis bei hoher Leistung durch den Einsatz aktueller und moderner Hardware. Gcore aktualisiert ständig seine Infrastruktur, führt neue Technologien ein und wendet fortschrittliche Lösungen an, um eine hohe Leistung und Effizienz der virtuellen Maschinen zu gewährleisten. Dies sind einige Hardware-Faktoren und Komponenten, die Gcore Basic VM auszeichnen:
Gcore Basic VM bietet Tools zur Netzwerküberwachung und -verwaltung, mit denen Sie die Leistung und Ressourcennutzung überwachen und mögliche Probleme erkennen können. Sie helfen Ihnen, Ihre Netzinfrastruktur effektiv zu verwalten und geeignete Maßnahmen zur Leistungsoptimierung zu ergreifen. Sie können Informationen zu Parametern wie CPU-Auslastung, Speichernutzung und Netzwerkaktivität anzeigen.
Gcore Basic VM bietet die Möglichkeit, einen geografischen Standort für Ihre virtuelle Maschine auszuwählen. Damit wird festgelegt, wo sich die physischen Server, auf denen Ihre VM läuft, befinden werden. Derzeit gibt es sechs Standorte auf vier Kontinenten (Nordamerika, Südamerika, Asien, Europa). Zwei weitere werden in Kürze folgen (Santa Clara und Singapur), und wir planen weitere Expansionen.
Mit Gcore Basic VM können Sie sich mit anderen Cloud- und Edge-Netzwerkdiensten verbinden und diese integrieren, um die Funktionalität Ihrer virtuellen Maschine zu erweitern. Dies bietet den Vorteil, dass Sie Ihr gesamtes Projekt an einem Ort verwalten können. Dies sind einige Möglichkeiten, andere Dienste zu verbinden:
Während Gcore Basic VM für viele eine effektive und erschwingliche Hosting-Option ist, übersteigen Ihre Bedürfnisse vielleicht das, was Gcore Basic VM bieten kann. In diesem Fall schlagen wir vor, eine unserer fortschrittlicheren Hosting-Optionen zu wählen: virtuelles Hosting oder einen dedizierten Server.
Wenn Sie mehr über diese Optionen erfahren möchten, lesen Sie unseren umfassenden Artikel über die Anwendungsfälle, für die ein dedizierter Server am besten geeignet ist, oder erfahren Sie mehr darüber, warum die Preise für virtuelle Server so stark variieren.
Gcore Basic VM ist ein preisgünstiger und robuster Hosting-Service. Er bietet ein hochwertiges Netzwerk, fortschrittliche Netzwerkfunktionen, ein benutzerfreundliches Control Panel, aktualisierte Hardware, einzigartige Überwachungssysteme, globale Reichweite und Cloud-/Edge-Integration. Wenn Sie einen flexiblen, skalierbaren und erschwinglichen Hosting-Service suchen, könnte Gcore Basic VM die richtige Wahl für Sie sein.
Wenn Sie sich nicht sicher sind, ob Gcore Basic VM das Richtige für Sie ist, wenden Sie sich an unser Supportteam. Wir helfen Ihnen gerne dabei, die Gcore-Hosting-Lösung zu finden, die perfekt zu Ihren Anforderungen passt.
]]>