Mehrere internationale Organisationen beschäftigen sich mit Künstlicher Intelligenz. Wir haben die wichtigsten Informationen dazu für Sie zusammengetragen.
Das Beratungsgremium für Künstliche Intelligenz besteht aus bis zu 38 Experten aus relevanten Disziplinen und ist im Büro des Sonderbeauftragten des Generalsekretärs für Technologie (OSET) angesiedelt. Das Gremium bietet eine Vielzahl von Perspektiven und Ansätzen zur Steuerung von KI im Sinne des Gemeinwohls, mit einem besonderen Fokus auf die Menschenrechte und die Ziele für nachhaltige Entwicklung (SDGs).
Im Jahr 2023 veröffentlichte das KI-Beratungsgremium seinen Zwischenbericht mit dem Titel "Governing AI for Humanity". Das zentrale Element des Berichts ist ein Vorschlag zur Stärkung der internationalen KI-Governance, der auf sieben Grundpfeilern beruhen soll: Inklusivität, öffentliches Interesse, Zentralität der Daten-Governance, ein universeller und multistakeholderorientierter Ansatz, die Verankerung der KI-Governance in der UN-Charta, die Förderung der Menschenrechte und das Erreichen der SDGs.
Der Abschlussbericht wird vor dem "Summit of the Future" im Sommer 2024 erwartet.
Am 21. März 2024 hat die Generalversammlung die erste globale Resolution zur Förderung sicherer und vertrauenswürdiger künstlicher Intelligenzsysteme verabschiedet. Diese Resolution, die von über 120 UN-Mitgliedstaaten, einschließlich China und den USA, unterstützt wurde, soll als Grundlage für zukünftige internationale Richtlinien zur Regulierung von KI dienen.
In der Resolution bekräftigt die Generalversammlung ihr Engagement für den Schutz und die Förderung von Grund- und Menschenrechten. Sie hebt hervor, dass die Rechte, die Menschen in der „Offline-Welt“ genießen, auch online während des gesamten Lebenszyklus von KI-Systemen gewährleistet sein müssen. Die UN-Generalversammlung fordert deshalb alle Mitgliedstaaten und Beteiligten auf, den Einsatz von KI-Systemen zu unterlassen, wenn diese nicht den internationalen Menschenrechtsnormen entsprechen oder unangemessene Risiken für die Menschenrechte darstellen.
Das rechtlich unverbindliche Dokument unterstreicht weiterhin die Bedeutung des Datenschutzes und betont die Notwendigkeit, die Entwicklung und Implementierung von Mechanismen zur Überwachung von Risiken sowie die Durchführung von Folgenabschätzungen während des gesamten Lebenszyklus von KI-Systemen zu fördern. Es fordert zudem die Stärkung von Investitionen in die Entwicklung und Implementierung wirksamer Schutzmaßnahmen, einschließlich physischer Sicherheit, Sicherheit von KI-Systemen und Risikomanagement.
Die Versammlung erkannte ferner die unterschiedlichen Technologieentwicklungsniveaus zwischen und innerhalb von Ländern an und dass Entwicklungsländer vor besonderen Herausforderungen stehen, um mit der schnellen Innovationsgeschwindigkeit Schritt zu halten. Sie forderte die Mitgliedstaaten und Stakeholder auf, mit Entwicklungsländern zu kooperieren und diese zu unterstützen, damit sie von einem inklusiven und gerechten Zugang profitieren, die digitale Kluft überbrücken und die digitale Alphabetisierung erhöhen können.
Im Kontext der künstlichen Intelligenz nimmt die Internationale Fernmeldeunion (ITU) eine führende Position unter den Sonderorganisationen der Vereinten Nationen ein. Ihr Schwerpunkt liegt darauf, die vielfältigen Möglichkeiten zu nutzen, die KI-Technologien bieten, um die 17 Ziele für nachhaltige Entwicklung (SDGs) effektiv zu unterstützen und voranzutreiben.
Aufgrund ihres spezifischen Mandats legt die ITU ein besonderes Augenmerk auf den KI-Einsatz im Bereich der Telekommunikation und der Informations- und Kommunikationstechnologien. Darüber hinaus arbeitet die ITU eng mit anderen UN-Sonderorganisationen und -Programmen in drei thematischen „Fokusgruppen“ zusammen, die sich mit den Herausforderungen und Möglichkeiten des KI-Einsatzes in den folgenden Bereichen befassen:
Darüber hinaus leitet die ITU die „AI for Good“-Initiative, eine digitale Plattform, auf der KI-Innovatoren und Stakeholder sich vernetzen, um praktische KI-Lösungen zu identifizieren, die die UN-SDGs voranbringen. Ein jährlicher Höhepunkt dieser Initiative ist der AI for Good Global Summit.
Zusätzlich koordiniert die ITU die Erstellung des Berichts „United Nations Activities on Artificial Intelligence (AI)“, der zuletzt 2023 veröffentlicht wurde. Dieser Bericht dokumentiert die Aktivitäten im Bereich KI, die von mehr als 40 UN-Sonderorganisationen, -Fonds, -Programmen und -Büros des UN-Systems durchgeführt wurden und alle 17 SDGs umfassen.
Schließlich führt die ITU gemeinsam mit der UNESCO die „inter-agency working group on Artificial Intelligence“ an. Diese Arbeitsgruppe bündelt die Expertise des UN-Systems im Bereich künstliche Intelligenz und unterstützt damit Initiativen zur Entwicklung einer KI-Ethik und strategischen Ansätzen zum Ausbau der Kompetenzen der Vereinten Nationen im Bereich KI.
Die UNESCO konzentriert sich auf die ethischen Aspekte der KI, insbesondere im Bildungs- und Kulturbereich. Die Organisation hat die „Recommendation on the Ethics of Artificial Intelligence“ entwickelt, die als Rahmenwerk für Bildungseinrichtungen und andere Akteure dienen soll, um sicherzustellen, dass KI-Technologien im Einklang mit Grundrechten und Freiheiten eingesetzt werden. Ein besonderer Fokus liegt auf dem Schutz der kulturellen Vielfalt. Darüber hinaus organisiert die UNESCO das „Global Forum on the Ethics of Artificial Intelligence“.
Die WIPO spielt eine zentrale Rolle in den Debatten um Künstliche Intelligenz und geistiges Eigentum. Generative KI-Systeme, die umfangreiche Datensätze nutzen – darunter Texte, Bilder und andere Medien – um traditionell von Menschen erstellte Inhalte zu generieren, konfrontieren uns mit zahlreichen rechtlichen Herausforderungen. Diese umfassen unter anderem potenzielle Urheberrechtsverletzungen durch die Einbeziehung urheberrechtlich geschützter Werke in Trainingsdaten sowie den Urheberschutz für durch KI erzeugte Werke. Zusätzlich ergibt sich die Notwendigkeit, einen angemessenen Patentschutz für die KI-Modelle selbst zu gewährleisten.
Um diese komplexen Fragen zu adressieren, fördert die WIPO den internationalen Austausch und hat zu diesem Zweck die Initiative „WIPO-Gespräch über geistiges Eigentum und Künstliche Intelligenz“ ins Leben gerufen. Diese Plattform versammelt weltweit führende Experten, um die Auswirkungen der KI auf das Recht des geistigen Eigentums zu diskutieren.
UN Global Pulse ist eine Initiative des UN-Generalsekretariats, die darauf abzielt, Big Data und KI zur Verbesserung der humanitären und entwicklungspolitischen Arbeit einzusetzen. Durch die Analyse großer Datenmengen strebt Global Pulse danach, Erkenntnisse zu gewinnen, die schnelle und effektive Antworten auf Krisensituationen ermöglichen. Diese Initiative ist ein vorbildliches Beispiel für die Nutzung von KI zur Echtzeit-Datenanalyse.
Der Internationale Währungsfonds konzentriert sich auf die wirtschaftlichen und finanziellen Auswirkungen der fortschreitenden Entwicklung und Implementierung von KI-Systemen. In diesem Kontext hat er mehrere Publikationen herausgegeben, von denen die folgenden zwei besonders erwähnenswert sind:
Die Staff Discussion Note „Gen-AI: Artificial Intelligence and the Future of Work“ konzentriert sich auf die potenziellen Auswirkungen von KI auf den globalen Arbeitsmarkt. Sie analysiert Szenarien, in denen KI menschliche Arbeit ersetzen oder ergänzen könnte. Die Untersuchung legt nahe, dass entwickelte Volkswirtschaften die Vor- und Nachteile von KI möglicherweise früher erleben als Entwicklungsländer. Ferner könnte die Lohneinkommensungleichheit zunehmen, falls eine stärkere Komplementarität zwischen KI und höher entlohnten Arbeitskräften besteht, während eine Erhöhung der Kapitalerträge die Vermögensungleichheit weiter verschärfen könnte. Allerdings könnten, sofern die Produktivitätssteigerungen ausreichend groß sind, die Einkommen der meisten Arbeitnehmer signifikant steigen.
Die Fintech Note „Generative Artificial Intelligence in Finance: Risk Considerations" thematisiert die Einführung von generativer KI im Finanzsektor. Obwohl KI-Technologie als ein Motor für Produktivität und wirtschaftliches Wachstum durch Effizienzsteigerung, verbesserte Entscheidungsprozesse und die Entwicklung neuer Produkte und Industrien anerkannt wird, beleuchtet dieses Dokument die inhärenten Risiken von generativer KI und deren mögliche Auswirkungen auf den Finanzsektor. Zu den identifizierten Hauptgefahren gehören Bias, Datenschutzprobleme, die Intransparenz von Ergebnissen, Cyberbedrohungen und das Potenzial zur Schaffung neuer Quellen und Übertragungswege systemischer Risiken. Generative KI könnte einige dieser Gefahren verstärken und auch neue Arten von Risiken hervorbringen, die, wenn nicht angemessen adressiert, die Stabilität des Finanzsektors gefährden könnten.
Das Zentrum für Künstliche Intelligenz und Robotik im UN-Institut für interregionale Kriminalitäts- und Justizforschung (UNICRI) wurde mit der Aufgabe ins Leben gerufen, das Verständnis für Künstliche Intelligenz, Robotik und verwandte Technologien zu fördern. Der Schwerpunkt liegt dabei insbesondere auf den Bereichen der Kriminalitäts- und Terrorismusbekämpfung sowie anderen Sicherheitsbedrohungen. Das Ziel des Zentrums ist es, die Mitgliedstaaten der Vereinten Nationen bei der Bewertung der Risiken und Chancen dieser Technologien zu unterstützen und Möglichkeiten für deren Einsatz zu erforschen, um die Bekämpfung von Gewalt und Kriminalität zu verstärken.
Im Jahr 2022 veröffentlichte die Internationale Atomenergie-Organisation (IAEO) die Publikation „Artificial Intelligence for Accelerating Nuclear Applications, Science and Technology“. Zusätzlich bietet die IAEO die Plattform „AI for Atoms“ an, die detaillierte Informationen zu den KI-bezogenen Aktivitäten der Organisation enthält, einschließlich aller relevanten Initiativen, Neuigkeiten, Publikationen und Veranstaltungen.
Das UN-Flüchtlingshilfswerk (UNHCR) setzt Künstliche Intelligenz (KI) gezielt ein, um die humanitäre Hilfe zu optimieren. Dabei werden KI-Technologien genutzt, um Flüchtlingsbewegungen vorherzusagen, die Ausbreitung von Krankheiten wie COVID-19 in Flüchtlingslagern zu simulieren und die entsprechenden Reaktionen zu koordinieren. Darüber hinaus unterstützt KI die Analyse von Textdaten aus sozialen Medien und anderen Quellen, um Schutzbedürfnisse zu identifizieren und darauf zu reagieren.
Der „OECD Working Party on Artificial Intelligence Governance“ (AIGO) steuert das Arbeitsprogramm des „Digital Policy Committee“ bezüglich der KI-Politik und -Governance.
Zu den Kernbereichen gehören die Analyse der Gestaltung, Implementierung, Überwachung und Bewertung nationaler KI-Politiken und Aktionspläne, die Bewertung der Auswirkungen von KI sowie die Entwicklung vertrauenswürdiger und verantwortungsvoller KI-Strategien. Die Gruppe überwacht außerdem die Mess- und Datenerfassungsaktivitäten des OECD.AI Observatoriums und führt prognostische Arbeiten zu KI und verwandten neuen Technologien durch.
In der AIGO wird Österreich durch das Bundesministerium für Finanzen vertreten.
Am 22. Mai 2019 nahm der OECD-Ministerrat eine Empfehlung zur Künstlichen Intelligenz an, die vom Committee on Digital Economy Policy (CDEP) vorgeschlagen wurde. Diese Empfehlung, die erste ihrer Art auf intergouvernementaler Ebene, zielt darauf ab, durch die Förderung verantwortungsvoller KI-Praktiken Innovation und Vertrauen in die Künstliche Intelligenz zu stärken. Sie betont die Bedeutung der Menschenrechte und demokratischer Werte und ergänzt bestehende OECD-Standards in Bereichen wie Datenschutz, Risikomanagement bei digitaler Sicherheit und verantwortungsbewusstes Unternehmensverhalten.
Die Empfehlung definiert fünf werteorientierte Prinzipien für die Entwicklung und den Einsatz von KI:
Darüber hinaus gibt sie den politischen Entscheidungsträgern fünf Handlungsempfehlungen. Diese umfassen:
Eine Überarbeitung der OECD-KI-Empfehlung wurde beim OECD-Ministerrat im Mai 2024 in Paris angenommen.
Die Anstrengungen der Organisation zielten auch darauf ab, einen allgemeinen Konsens über die Definition eines KI-Systems zu erlangen. Vor kurzem haben die Mitgliedstaaten der OECD eine revidierte Fassung der Definition eines KI-Systems der Organisation genehmigt:
“An AI system is a machine-based system that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical real or virtual environments. Different AI systems vary in their levels of autonomy and adaptiveness after deployment”
Die Definition, die im KI-Gesetz der Europäischen Union festgelegt ist, spiegelt weitgehend jene der OECD wider:
„AI system is a machine-based system designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments.
Im Februar 2020 wurde das OECD.AI Policy Observatory eingerichtet. Die Tätigkeiten des Observatoriums werden durch sechs Expertengruppen vorangetrieben:
Das OECD.AI Policy Observatory betreibt eine in Zusammenarbeit mit der Europäischen Kommission entwickelte Echtzeit-Datenbank für KI-Politiken und -Initiativen, die von teilnehmenden Ländern und weiteren Stakeholdern genutzt und fortlaufend aktualisiert wird.
Über ein Dashboard lassen sich länderspezifische Daten abrufen, darunter Informationen zu Strategien und Forschungseinrichtungen, die auf die Entwicklung von Künstlicher Intelligenz spezialisiert sind. Die Plattform deckt alle OECD-Mitgliedsländer ab, sowie wichtige Partnerländer wie Brasilien, China, Indien, Indonesien und Südafrika, und erstreckt sich auch auf weitere Länder in Afrika, Asien und Lateinamerika.
Das OECD-Framework zur Klassifizierung von KI-Systemen (Overview | Report) wurde vom OECD.AI Netzwerk von Experten entwickelt, um politischen Entscheidungsträgern, Regulierungsbehörden, Gesetzgebern und anderen Akteuren zu helfen, die Chancen und Risiken verschiedener KI-Systeme zu bewerten.
Der Rahmen klassifiziert KI-Systeme und Anwendungen anhand der folgenden Dimensionen: Menschen & Planet, Wirtschaftskontext, Daten & Eingabe, KI-Modell sowie Aufgabe & Ausgabe. Jede dieser Dimensionen verfügt über eigene Eigenschaften und Attribute oder Unterkategorien, die für die Bewertung politischer Überlegungen zu bestimmten KI-Systemen relevant sind.
Der OECD AI Incidents Monitor (AIM) erfasst Zwischenfälle der Künstlichen Intelligenz, um Entscheidungsträgern, Fachleuten und weiteren Interessengruppen weltweit tiefgreifende Einblicke in die damit verbundenen Risiken und Gefahren zu verschaffen.
Die folgende Definition von AI Incident wurde ausgearbeitet:
An AI incident is an event, circumstance or series of events where the development, use or malfunction of one or more AI systems directly or indirectly leads to any of the following harms:
(a) injury or harm to the health of a person or groups of people;
(b) disruption of the management and operation of critical infrastructure;
(c) violations of human rights or a breach of obligations under the applicable law intended to protect fundamental, labour and intellectual property rights;
(d) harm to property, communities or the environment.
Über die Zeit wird der AIM dazu beitragen, wiederkehrende Muster zu identifizieren und ein besseres Verständnis der komplexen Natur von KI-Incidents zu entwickeln.
Zunächst werden KI-Zwischenfälle, die in angesehenen internationalen Medien weltweit berichtet werden, identifiziert und mittels maschineller Lernmodelle klassifiziert. Diese Modelle ordnen die Zwischenfälle nach verschiedenen Kategorien des OECD-Rahmens zur Klassifizierung von KI-Systemen, darunter Schweregrad, betroffene Branche, zugehöriges KI-Prinzip, Schadensarten und betroffene Stakeholder. Die Analyse erfolgt anhand des Titels, des Abstracts und der ersten Absätze jedes Nachrichtenartikels. Die Nachrichten stammen von Event Registry, einer Plattform für Nachrichtenintelligenz, die globale Nachrichten überwacht und spezifische Ereignistypen in den Artikeln identifizieren kann, mit einer Verarbeitung von über 150.000 englischsprachigen Artikeln täglich.
Auf der Webseite OECD.AI werden zahlreiche Veröffentlichungen und Berichte über aktuelle Forschungsarbeiten zur KI-Politik gesammelt, die in verschiedenen politischen Gemeinschaften innerhalb und außerhalb der OECD durchgeführt werden. Diese Dokumente sind nach politischen Bereichen wie Wirtschaft, Bildung, Gesundheit, Wettbewerb und digitale Ökonomie kategorisiert.
Zudem findet man in der entsprechenden Sektion der Webseite eine fortlaufende Übersicht über KI-bezogene Nachrichten aus aller Welt, wobei die Artikel je nach ihrer Einstellung zur KI als positiv, negativ oder neutral klassifiziert werden.
Am 14. März 2024 hat der Ausschuss für Künstliche Intelligenz (CAI) des Europarates den Entwurf der Rahmenkonvention über künstliche Intelligenz, Menschenrechte, Demokratie und Rechtsstaatlichkeit angenommen (Draft Explanatory Report). Dieser Entwurf wurde am 17. Mai 2024 vom Ministerrat des Europarates formell verabschiedet und ist als rechtlich bindender internationaler Vertrag in Kraft getreten. An den Verhandlungen waren neben den 46 Mitgliedstaaten des Europarats auch die EU-Kommission und die USA beteiligt.
Der Kern des Dokuments umfasst grundlegende Prinzipien, Regeln und Rechte, die sicherstellen sollen, dass die Entwicklung und der Einsatz von KI-Systemen die Menschenrechte respektieren, die Demokratie fördern und die Rechtsstaatlichkeit wahren. Der Anwendungsbereich des Rahmenübereinkommens erstreckt sich auf das Design, die Entwicklung und den Einsatz von KI-Systemen und zielt darauf ab, diese in allen Phasen ihres Lebenszyklus zu regulieren. Das Regelwerk findet sowohl auf öffentliche als auch auf private Einrichtungen Anwendung, was bis zuletzt umstritten war. Die Ausnahmeregelungen für nationale Sicherheits-KI-Systeme wurden in einer eingeschränkten Form beibehalten.
Das Rahmenübereinkommen soll das bestehende Menschenrechtsregime auf den KI-Bereich ausdehnen. Es beinhaltet Bestimmungen zum Datenschutz und Schutz der Privatsphäre, zur Verhinderung von Diskriminierung durch KI-Einsatz und zur Sicherstellung der individuellen Freiheit, Menschenwürde und Autonomie. Die Unterzeichnerstaaten werden angehalten, Interessensgruppen in die Entwicklung und Anwendung von KI-Systemen einzubeziehen und die öffentliche Debatte zu fördern. Speziell auf KI ausgerichtete Verpflichtungen umfassen die Förderung von KI-Kompetenz in der Bevölkerung, das Prinzip der menschlichen Aufsicht und die Verpflichtung, Betroffene über Interaktionen mit KI zu informieren.
Das Rahmenübereinkommen stellt zudem Mindestanforderungen für die Bewertung der Auswirkungen von KI auf die Grund- und Menschenrechte auf und verpflichtet die Vertragsstaaten, wirksame Richtlinien für die Identifikation, Bewertung, Verhütung und Milderung von Risiken und nachteiligen Auswirkungen von KI-Einsätzen zu entwickeln.
Bei dem G20-Gipfeltreffen in Osaka, das im Juni 2019 stattfand, hat sich die G20-Gemeinschaft erstmals intensiv mit dem Thema Künstliche Intelligenz (KI) auseinandergesetzt. Die Staats- und Regierungschefs haben dort Prinzipien für den verantwortungsvollen Umgang mit Künstlicher Intelligenz verabschiedet, die größtenteils auf den OECD-Prinzipien für Künstliche Intelligenz basieren. Diese sollen als Basis für nationale Regelungen dienen und international tätigen Unternehmen bei der Entwicklung eigener Standards unterstützen. KI-Systeme sollten so konzipiert werden, dass sie die Rechtsstaatlichkeit, Menschenrechte, demokratische Werte und Vielfalt achten.
In der Abschlusserklärung des Gipfels der Staats- und Regierungschefs der G20 in Neu-Delhi im September 2023 werden folgende Maßnahmen zur Förderung der künstlichen Intelligenz aufgeführt:
Zusätzlich zur Förderung einer sicheren, transparenten Künstlichen Intelligenz, die zum Wohle eingesetzt wird, legt die brasilianische G20-Präsidentschaft einen besonderen Fokus auf die Bekämpfung von Ungleichheiten (Digital Economy Working Group - Issue Note). Die Präsidentschaft stellt fest, dass aktuelle internationale Diskussionen wichtige Herausforderungen außer Acht lassen und zentrale Fragen, wie die Konzentration von Kapazitäten, Datensätzen und Infrastrukturen in den Händen weniger Akteure, nicht adressieren. Es wird daher als entscheidend angesehen, dass Entwicklungsländer Zugang zu diesen Technologien haben, zu deren Weiterentwicklung beitragen und vollständig von ihnen profitieren können.
Der Hiroshima Process wurde im Mai 2023 auf Anregung der G7-Staats- und Regierungschefs beim Gipfel in Hiroshima ins Leben gerufen (Leaders’ Statement), mit dem Ziel, die internationale Diskussion über die Chancen und Risiken der Künstlichen Intelligenz zu fördern und voranzutreiben.
Aus diesem Prozess gingen die G7-KI-Prinzipien und der Verhaltenskodex (AIP&CoC) hervor (Guiding Principles for All AI Actors | Guiding Principles for Organizations Developing Advanced AI Systems | Code of Conduct for Organizations Developing Advanced AI Systems). Ein wesentlicher Aspekt der AIP&CoC ist das starke Engagement der G7 für bestimmte Schlüsselbereiche der KI-Governance. Dies umfasst einen risikobasierten Ansatz, der während des gesamten Lebenszyklus der KI angewendet wird, beginnend mit präventiven Risikobewertungen und -Minderungsmaßnahmen vor der Implementierung. Weiterhin wird die Notwendigkeit einer kontinuierlichen Überwachung, Berichterstattung und Minderung von Missbrauch und Vorfällen betont. Als Vorsichtsmaßnahme heben die AIP&CoC die Bedeutung hervor, dass KI-Entwickler und -Anwender über Richtlinien und Verfahren für das Risikomanagement sowie über starke Sicherheitskontrollen verfügen.
Neben der Auseinandersetzung mit Bedenken bezüglich der Risiken fortschrittlicher KI-Systeme definieren die G7 AIP&CoC auch Prioritäten für die KI-Forschung und -Entwicklung. Dazu gehören die Authentifizierung von Inhalten, Maßnahmen zum Schutz der Datenrechte, die Minderung von gesellschaftlichen, Sicherheits- und anderen Risiken, der Einsatz von KI zur Bewältigung globaler Herausforderungen wie dem Klimawandel und die Entwicklung technischer Standards.
Die G7-Staaten haben sich dazu verpflichtet, die Prinzipien und den Kodex als Teil eines umfassenden politischen Rahmens weiterzuentwickeln, mit Beiträgen von anderen Nationen, der OECD, der Global Partnership on AI (GPAI) und einer breiten Palette von Akteuren aus Wissenschaft, Wirtschaft und Zivilgesellschaft.
Im Rahmen der G7-Initiativen, die über das Jahr 2024 fortgeführt werden, legt die italienische G7-Präsidentschaft einen besonderen Schwerpunkt auf die ethische und gesellschaftlich verträgliche Entwicklung der künstlichen Intelligenz.
Künstliche Intelligenz war eines der zentralen Themen des G7-Gipfeltreffens der Staats- und Regierungschefs, das vom 13. bis 15. Juni 2024 in Apulien stattgefunden hat. Das Thema erhielt zusätzliche Aufmerksamkeit durch die Teilnahme von Papst Franziskus, der als erster Papst bei einem solchen Forum anwesend war. In seiner Ansprache betonte er, dass die Entscheidungsfindung stets in menschlichen Händen bleiben muss. Die Abschlusserklärung (Leaders’ Communiqué) unterstreicht die Bedeutung internationaler Kooperationen und die Harmonisierung der Gesetzgebung, um die Sicherheit, Transparenz und Verantwortlichkeit von KI-Technologien und -Anwendungen zu erhöhen. Risikobasierte Ansätze zur Regulierung von KI werden dabei bevorzugt, um Innovation sowie starkes, inklusives und nachhaltiges Wachstum zu fördern. Zusätzlich haben die Staats- und Regierungschefs beschlossen, einen Aktionsplan zur Nutzung von KI in der Arbeitswelt zu initiieren und eine Brand zu entwickeln, die die Implementierung des internationalen G7-KI-Verhaltenskodex unterstützt. Die entscheidende Rolle robuster und zuverlässiger Lieferketten für Halbleiter für eine sichere und vertrauenswürdige KI wurde ebenfalls auf dem Gipfel hervorgehoben. Um Herausforderungen in diesem Bereich zu adressieren, begrüßen die Staats- und Regierungschefs die Einrichtung einer Semiconductors G7 Point of Contact Group.
Künstliche Intelligenz nimmt eine zentrale Rolle auch bei den ministeriellen G7-Gipfeltreffen ein, unter anderem beim Treffen der Minister für Industrie, Technologie und Digitalisierung im März 2024 (Ministerial Declaration). Die Minister erkannten das Potenzial der KI-Technologien zur Steigerung der Produktivität, Innovation und Effizienz in verschiedenen Wirtschaftsbereichen sowie deren Bedeutung bei der Bewältigung globaler Herausforderungen wie Datenschutz, Sicherheit und der zunehmenden digitalen Kluft. Zudem betonten sie die Notwendigkeit einer ethischen Herangehensweise an KI, die Innovation fördert, während gleichzeitig notwendige Sicherheitsvorkehrungen getroffen werden, um eine sichere, zuverlässige und vertrauenswürdige Nutzung zu gewährleisten.
Eine weitere wichtige internationale Initiative im Bereich der Künstlichen Intelligenz war der AI Seoul Summit, der am 21. und 22. Mai 2024 von der südkoreanischen Regierung in Zusammenarbeit mit dem Vereinigten Königreich veranstaltet wurde. Dieser Gipfel knüpfte an den AI Safety Summit an, der im November 2023 in Bletchley Park stattgefunden hatte.
Der AI Seoul Summit endete mit dem „Ministerial Statement for Advancing AI Safety, Innovation and Inclusivity“. In diesem haben sich 27 Länder darauf geeinigt, gemeinsame Risikogrenzen für die Entwicklung und Nutzung von KI zu definieren und die wissenschaftliche Zusammenarbeit im Bereich KI-Sicherheit zu intensivieren. Dies soll unter anderem durch Kooperationen für die Entwicklung und Durchführung von Sicherheitstests sowie die Etablierung von Bewertungsrichtlinien erfolgen. Unter den Unterzeichnern befanden sich Australien, Chile, Deutschland, Frankreich, Indien, Indonesien, Israel, Italien, Japan, Kanada, Kenia, Mexiko, die Niederlande, Nigeria, Neuseeland, die Philippinen, Südkorea, Ruanda, Saudi-Arabien, Singapur, Spanien, die Schweiz, die Türkei, die Ukraine, die Vereinigten Arabischen Emirate, das Vereinigte Königreich und die USA sowie die Europäische Union. China nahm am Gipfel teil, unterzeichnete die Erklärung jedoch nicht.
Darüber hinaus unterzeichneten zehn Länder und die EU die „Seoul Declaration for Safe, Innovative, and Inclusive AI“, um das „Ministerial Statement“ zu unterstützen. Diese Erklärung zielt darauf ab, ein internationales Netzwerk öffentlich geförderter KI-Sicherheitsinstitute zu etablieren, um harmonisierte Vorgehensweisen in den Bereichen Regulierung, Testverfahren und Forschung zu fördern und die Schaffung eines internationalen Rahmens für sichere KI-Anwendungen zu beschleunigen. Unter den Unterzeichnern waren Australien, Kanada, die Europäische Union, Frankreich, Deutschland, Italien, Japan, Südkorea, Singapur, die USA und das Vereinigte Königreich.
Neben politischen Akteuren nahmen auch führende Technologieunternehmen am AI Seoul Summit teil. Sechzehn weltweit renommierte Unternehmen, darunter Amazon, Google, Meta, Microsoft, Samsung und OpenAI, unterzeichneten die „Frontier AI Safety Commitments“. Diese Verpflichtungen umfassen die Zusage, keine KI-Modelle zu entwickeln oder einzusetzen, die gravierende Risiken bergen, sowie die Einrichtung verantwortungsbewusster Strukturen und Transparenz bezüglich ihrer KI-Sicherheitskonzepte.