banner
Nachrichtenzentrum
Außergewöhnlicher Kundenservice

Die internationale Gemeinschaft muss sich dringend mit der neuen Realität der generativen, künstlichen Intelligenz auseinandersetzen, betonen Redner, während der Sicherheitsrat über Risiken und Chancen debattiert

Jul 19, 2023

Die internationale Gemeinschaft müsse sich dringend mit der neuen Realität der generativen und anderen künstlichen Intelligenz (KI) auseinandersetzen, sagten Redner heute dem Sicherheitsrat auf seiner ersten formellen Sitzung zu diesem Thema, während die anschließende Diskussion die Dualität von Risiko und Nutzen dieser aufstrebenden Technologie hervorhob .

António Guterres, Generalsekretär der Vereinten Nationen, wies darauf hin, dass KI mit der Druckmaschine verglichen wurde, und stellte fest, dass es zwar mehr als 50 Jahre dauerte, bis gedruckte Bücher in ganz Europa allgemein verfügbar waren, „ChatGPT jedoch in nur 100 Millionen Nutzern erreichte.“ zwei Monate". Trotz ihres Potenzials, die globale Entwicklung anzukurbeln und Menschenrechte zu verwirklichen, kann KI Voreingenommenheit verstärken, Diskriminierung verstärken und ein neues Maß an autoritärer Überwachung ermöglichen.

Das Aufkommen generativer KI „könnte ein entscheidender Moment für Desinformation und Hassrede sein“, stellte er fest. Auch wenn Fragen der Regierungsführung aus mehreren Gründen komplex sein werden, verfügt die internationale Gemeinschaft bereits über Ansatzpunkte. Der beste Ansatz bestünde darin, bestehende Herausforderungen anzugehen und gleichzeitig Kapazitäten zu schaffen, um auf zukünftige Risiken zu reagieren, sagte er und betonte die Notwendigkeit, „zusammen für eine KI zu arbeiten, die soziale, digitale und wirtschaftliche Gräben überbrückt – und nicht, die uns noch weiter auseinandertreibt“.

Jack Clark, Mitbegründer von Anthropic, stellte fest, dass KI zwar enorme Vorteile bringen kann, aufgrund ihres Missbrauchspotenzials und ihrer Unvorhersehbarkeit – zwei wesentliche Eigenschaften von KI-Systemen – jedoch auch eine Bedrohung für Frieden, Sicherheit und globale Stabilität darstellt. Während ein KI-System beispielsweise das Verständnis der Biologie verbessern kann, kann es auch zum Bau biologischer Waffen eingesetzt werden. Darüber hinaus identifizieren Menschen nach der Entwicklung und Bereitstellung neue und unerwartete Verwendungsmöglichkeiten für solche Systeme.

„Wir können die Entwicklung künstlicher Intelligenz nicht ausschließlich privatwirtschaftlichen Akteuren überlassen“, betonte er und erklärte, dass Regierungen Unternehmen zur Verantwortung ziehen können – und Unternehmen das Vertrauen der Welt gewinnen können –, indem sie robuste, zuverlässige Bewertungssysteme entwickeln. Ohne solche Investitionen laufe die internationale Gemeinschaft Gefahr, die Zukunft einer kleinen Gruppe privatwirtschaftlicher Akteure zu überlassen, warnte er.

Auch Yi Zeng vom Institut für Automatisierung der Chinesischen Akademie der Wissenschaften informierte den Rat und wies darauf hin, dass es sich bei der aktuellen KI um Informationsverarbeitungswerkzeuge handele, die zwar scheinbar intelligent seien, aber nicht wirklich verstanden würden. „Deshalb kann man ihnen natürlich nicht als verantwortungsvolle Akteure vertrauen, die den Menschen bei der Entscheidungsfindung helfen können“, betonte er. Sowohl kurzfristige als auch langfristige KI bergen das Risiko der Ausrottung der Menschheit, einfach weil „wir keinen Weg gefunden haben, uns vor der Ausnutzung menschlicher Schwächen durch KI zu schützen“, sagte er.

In der anschließenden Debatte betonten die Ratsmitglieder abwechselnd die transformativen Möglichkeiten, die KI für die Bewältigung globaler Herausforderungen bietet, und die Risiken, die sie mit sich bringt – einschließlich ihres Potenzials, Konflikte durch die Verbreitung von Fehlinformationen und böswilligen Cyberoperationen zu verschärfen. Viele erkannten die militärischen Einsatzmöglichkeiten der Technologie und betonten die Notwendigkeit, das Element menschlicher Entscheidungsfindung in autonomen Waffensystemen beizubehalten. Die Mitglieder betonten außerdem die Notwendigkeit, einen ethischen, verantwortungsvollen Rahmen für die internationale KI-Governance zu schaffen.

Hierzu erklärte Omran Sharaf, stellvertretender Minister für fortgeschrittene Wissenschaften und Technologie der Vereinigten Arabischen Emirate, dass es jetzt ein kurzes Zeitfenster gebe, in dem wichtige Interessengruppen bereit seien, sich zu vereinen und über die Leitplanken für diese Technologie nachzudenken. Die Mitgliedstaaten sollten gemeinsam vereinbarte Regeln festlegen, „bevor es zu spät ist“, betonte er und forderte Mechanismen, um zu verhindern, dass KI-Tools Hass, Fehlinformationen und Desinformation fördern, die Extremismus schüren und Konflikte verschärfen können.

Der Vertreter Ghanas betonte außerdem, dass die internationale Gemeinschaft „die Exzesse einzelner nationaler Ambitionen auf kämpferische Vorherrschaft eindämmen“ müsse. Er drängte auf die Entwicklung von Rahmenwerken, die KI für friedliche Zwecke regeln würden, und hob den Einsatz dieser Technologie durch die Unterstützungsmission der Vereinten Nationen in Libyen (UNSMIL) hervor. Er nutzte es, um die Reaktion des libyschen Volkes auf die Politik zu bestimmen, und ermöglichte Verbesserungen im globalen Friedensindex 2022 des Landes, wie er anmerkte, und warnte gleichzeitig vor der Integration von KI in autonome Waffensysteme.

Der Sprecher für Ecuador lehnte ebenfalls die Militarisierung der KI ab und bekräftigte die Gefahr, die von tödlichen autonomen Waffen ausgeht. „Die Robotisierung von Konflikten ist eine große Herausforderung für unsere Abrüstungsbemühungen und eine existenzielle Herausforderung, die dieser Rat auf eigene Gefahr ignoriert“, warnte er. Er fügte hinzu, dass KI zu Friedensbemühungen beitragen oder diese untergraben könne, und betonte, dass „unsere Verantwortung darin besteht, die technologische Entwicklung als Vermittler des Friedens zu fördern und das Beste daraus zu machen“.

Chinas Vertreter wies darauf hin, dass KI ein zweischneidiges Schwert sei, und sagte, ob sie gut oder böse sei, hänge davon ab, wie die Menschheit sie nutzt und reguliert und wie das Gleichgewicht zwischen wissenschaftlicher Entwicklung und Sicherheit hergestellt werde. Die KI-Entwicklung müsse Sicherheit, Risikobewusstsein, Fairness und Inklusivität gewährleisten, betonte er und forderte die internationale Gemeinschaft auf, Ethik an die erste Stelle zu setzen und sicherzustellen, dass die Technologie immer der Menschheit zugute kommt.

James Cleverly, Staatssekretär für auswärtige Angelegenheiten, Commonwealth- und Entwicklungsangelegenheiten des Vereinigten Königreichs und Ratsvorsitzender im Juli, sprach in seiner nationalen Funktion und wies darauf hin, dass KI die globale strategische Stabilität verbessern oder stören, grundlegende Annahmen über Verteidigung und Abschreckung in Frage stellen könnte moralische Fragen zur Verantwortlichkeit für tödliche Entscheidungen auf dem Schlachtfeld stellen. Doch vor der internationalen Gemeinschaft lägen bedeutsame Chancen, fügte er hinzu und stellte fest: „Es gibt eine Flut in den Angelegenheiten der Menschen, die, wenn sie von der Flut erfasst wird, zu Reichtum führt.“

Briefings

ANTÓNIO GUTERRES, Generalsekretär der Vereinten Nationen, erinnerte daran, dass er der Generalversammlung im Jahr 2017 gesagt hatte, dass künstliche Intelligenz (KI) „dramatische Auswirkungen auf die nachhaltige Entwicklung, die Arbeitswelt und das soziale Gefüge haben würde“. Er wies darauf hin, dass diese Technologie mit der Druckmaschine verglichen wurde, und stellte fest, dass ChatGPT zwar mehr als 50 Jahre dauerte, bis gedruckte Bücher in ganz Europa allgemein verfügbar waren, „ChatGPT jedoch in nur zwei Monaten 100 Millionen Nutzer erreichte“. Die Finanzbranche schätzt, dass KI bis 2030 bis zu 15 Billionen US-Dollar zur Weltwirtschaft beitragen könnte, und fast jede Regierung, jedes große Unternehmen und jede Organisation auf der Welt arbeitet an einer KI-Strategie. KI hat das Potenzial, die globale Entwicklung voranzutreiben – von der Überwachung der Klimakrise bis hin zu Durchbrüchen in der medizinischen Forschung – und sie bietet neues Potenzial zur Verwirklichung der Menschenrechte, insbesondere in den Bereichen Gesundheit und Bildung.

Er wies jedoch darauf hin, dass der Hohe Kommissar für Menschenrechte seine Besorgnis über Beweise dafür zum Ausdruck gebracht habe, dass KI Voreingenommenheit verstärken, Diskriminierung verstärken und ein neues Maß an autoritärer Überwachung ermöglichen könne. Er forderte den Rat auf, sich dieser Technologie mit einem Gefühl der Dringlichkeit, einer globalen Perspektive und der Denkweise eines Lernenden zu nähern, und bemerkte: „Nie wieder wird die technologische Innovation so langsam voranschreiten wie heute.“ Während KI-Instrumente – auch von den Vereinten Nationen – zunehmend eingesetzt werden, um Gewaltmuster zu erkennen, Waffenstillstände zu überwachen und zur Stärkung der Friedenssicherung, Vermittlung und humanitären Bemühungen beizutragen, können KI-Modelle Menschen dabei helfen, sich selbst und anderen in großem Umfang Schaden zuzufügen. Dazu sagte er, dass KI-gestützte Cyberangriffe bereits auf kritische Infrastrukturen und friedenserhaltende Operationen abzielen und dass das Aufkommen generativer KI „ein entscheidender Moment für Desinformation und Hassrede sein könnte“. Er skizzierte weitere mögliche Konsequenzen und äußerte seine Besorgnis über fehlerhafte KI-Systeme und die Interaktion zwischen KI und Atomwaffen, Biotechnologie, Neurotechnologie und Robotik.

„Ohne Maßnahmen zur Bewältigung dieser Risiken vernachlässigen wir unsere Verantwortung gegenüber heutigen und künftigen Generationen“, betonte er. Governance-Fragen werden aus mehreren Gründen komplex sein: Leistungsfähige KI-Modelle sind bereits weithin verfügbar; KI-Tools können auf der ganzen Welt transportiert werden und hinterlassen kaum Spuren. und die führende Rolle des Privatsektors in der KI weist kaum Parallelen zu anderen strategischen Technologien auf. Die internationale Gemeinschaft verfügt jedoch bereits über Ansatzpunkte, darunter die Leitprinzipien 2018–2019 zu tödlichen autonomen Waffensystemen; die 2021 von der Organisation der Vereinten Nationen für Erziehung, Wissenschaft und Kultur (UNESCO) vereinbarten Empfehlungen zur Ethik der KI; Empfehlungen des Büros der Vereinten Nationen für Terrorismusbekämpfung; und die „AI for Good“-Gipfeltreffen der International Telecommunication Union (ITU).

Der beste Ansatz bestehe darin, bestehende Herausforderungen anzugehen und gleichzeitig die Fähigkeit zu schaffen, künftige Risiken zu überwachen und darauf zu reagieren. Der Bedarf an globalen Standards und Ansätzen macht die Vereinten Nationen zum idealen Ort dafür, und er begrüßte daher die Forderungen einiger Mitgliedstaaten, eine neue Einheit der Vereinten Nationen zu schaffen, um gemeinsame Bemühungen zur Steuerung dieser Technologie zu unterstützen. Eine solche Einrichtung würde Fachwissen sammeln und es der internationalen Gemeinschaft zur Verfügung stellen und könnte die Zusammenarbeit bei der Forschung und Entwicklung von KI-Tools unterstützen, um eine nachhaltige Entwicklung voranzutreiben. Er forderte den Rat auf, den Weg zu gemeinsamen Maßnahmen für die Transparenz, Rechenschaftspflicht und Überwachung von KI-Systemen aufzuzeigen, und betonte die Notwendigkeit, „zusammen für eine KI zu arbeiten, die soziale, digitale und wirtschaftliche Gräben überbrückt – und nicht eine, die uns noch weiter auseinandertreibt“.

JACK CLARK, Mitbegründer von Anthropic, sagte: „Wir können die Entwicklung künstlicher Intelligenz nicht allein den Akteuren des Privatsektors überlassen. Die Regierungen der Welt müssen zusammenkommen, staatliche Kapazitäten entwickeln und die Entwicklung leistungsstarker KI-Systeme zu einem gemeinsamen Unterfangen aller Teile der Gesellschaft machen, anstatt nur von einer kleinen Anzahl von Unternehmen diktiert zu werden, die auf dem Markt miteinander konkurrieren.“ Er erinnerte daran, dass das in England ansässige Unternehmen DeepMind vor einem Jahrzehnt eine Studie veröffentlichte, die zeigt, wie man einem KI-System beibringt, alte Computerspiele wie Space Invaders zu spielen. Die gleichen Techniken, die in dieser Forschung verwendet wurden, werden jetzt verwendet, um KI-Systeme zu entwickeln, die Militärpiloten bei Luftkampfsimulationen schlagen und sogar die Komponenten von Halbleitern der nächsten Generation entwerfen können.

Er stellte fest, dass KI-Modelle wie OpenAI, ChatGPT, Google Bard und sein eigenes Unternehmen Anthropic's Claude von Unternehmensinteressen entwickelt werden, und sagte, dass die Akteure des Privatsektors diejenigen seien, die über hochentwickelte Computer und große Datenpools und Kapitalressourcen verfügen Obwohl sie diese Systeme bauen, werden sie wahrscheinlich auch weiterhin deren Entwicklung bestimmen. Dies wird zwar enorme Vorteile mit sich bringen, birgt aber auch potenzielle Gefahren für Frieden, Sicherheit und globale Stabilität, die sich aus dem Missbrauchspotenzial und der Unvorhersehbarkeit der KI ergeben – zwei wesentliche Eigenschaften von KI-Systemen. Zum Thema Missbrauch sagte er beispielsweise, dass ein KI-System, das zu einem besseren Verständnis der Biologie beitragen könne, auch zum Bau biologischer Waffen eingesetzt werden könne. Zum Thema Unvorhersehbarkeit wies er darauf hin, dass die Menschen nach der Entwicklung und dem Einsatz von KI-Systemen neue Verwendungszwecke für sie identifizieren, die von ihren Entwicklern nicht vorhergesehen wurden, oder dass das System selbst später ein chaotisches oder unvorhersehbares Verhalten zeigen könnte.

„Deshalb sollten wir sehr sorgfältig darüber nachdenken, wie wir sicherstellen können, dass die Entwickler dieser Systeme rechenschaftspflichtig sind, damit sie sichere und zuverlässige Systeme aufbauen und einsetzen, die die globale Sicherheit nicht gefährden“, forderte er. Er wies darauf hin, dass KI als eine Form menschlicher Arbeit einen enormen politischen Einfluss und Einfluss biete und die Frage aufwirft, wie Regierungen diese Macht regulieren sollten oder wer die Akteure sein sollten, die diese sogenannten Experten verkaufen können. Die internationale Gemeinschaft muss daran arbeiten, Möglichkeiten zu entwickeln, um die Fähigkeiten der Systeme, Missbrauch und mögliche Sicherheitsmängel zu testen. Aus diesem Grund sei es ermutigend zu sehen, dass viele Länder in ihren verschiedenen Vorschlägen zur KI-Politik die Bedeutung von Sicherheitstests und -bewertungen hervorheben, sagte er und nannte dabei diejenigen der Europäischen Union, Chinas und der Vereinigten Staaten.

Er verwies auf das Fehlen von Standards oder Best Practices für die Prüfung dieser Systeme auf Dinge wie Diskriminierung, Missbrauch oder Sicherheit und sagte, dass Regierungen Unternehmen zur Rechenschaft ziehen und Unternehmen das Vertrauen der Welt gewinnen können, indem sie robuste und zuverlässige Bewertungssysteme entwickeln. Ohne eine solche Investition laufe die internationale Gemeinschaft Gefahr, die Zukunft einem kleinen Kreis privatwirtschaftlicher Akteure zu überlassen, warnte er. „Wenn wir uns der Herausforderung jedoch stellen können, können wir als globale Gemeinschaft von den Vorteilen der KI profitieren und sicherstellen, dass zwischen den Entwicklern von KI und den Bürgern der Welt ein Machtgleichgewicht besteht“, sagte er.

YI ZENG vom Institut für Automatisierung der Chinesischen Akademie der Wissenschaften sagte, es bestehe kein Zweifel daran, dass KI eine leistungsstarke und befähigende Technologie sei, um die globale nachhaltige Entwicklung voranzutreiben. Aus der Perspektive von Frieden und Sicherheit sollten sich die Bemühungen darauf konzentrieren, Desinformation und Missverständnisse zwischen Ländern und politischen Gremien aufzudecken. KI sollte zur Netzwerkverteidigung und nicht für Angriffe eingesetzt werden. „KI sollte genutzt werden, um Menschen und Kulturen zu verbinden und nicht, um sie zu entkoppeln“, fügte er hinzu. Bei der aktuellen KI, einschließlich der neueren generativen KI, handelt es sich um Informationsverarbeitungswerkzeuge, die scheinbar intelligent sind, obwohl es ihnen an wirklichem Verständnis mangelt und sie daher nicht wirklich intelligent sind.

„Deshalb kann man ihnen natürlich nicht als verantwortungsvolle Akteure vertrauen, die den Menschen bei der Entscheidungsfindung helfen können“, betonte er. KI sollte nicht zur Automatisierung diplomatischer Aufgaben, insbesondere von Auslandsverhandlungen zwischen verschiedenen Ländern, eingesetzt werden, da sie menschliche Einschränkungen und Schwächen nutzen und erweitern kann, um größere oder sogar katastrophale Risiken zu schaffen. „KI sollte niemals vorgeben, ein Mensch zu sein“, sagte er und betonte die Notwendigkeit, eine ausreichende, wirksame und verantwortungsvolle menschliche Kontrolle für alle KI-gestützten Waffensysteme sicherzustellen. Sowohl die kurzfristige als auch die langfristige KI wird das Risiko des Aussterbens von Menschen bergen, einfach weil „wir keinen Weg gefunden haben, uns vor der Ausnutzung menschlicher Schwächen durch die KI zu schützen“. Die KI „weiß nicht, was wir unter Mensch verstehen – Tod und Leben“.

„Auf lange Sicht haben wir der Superintelligenz keine praktischen Gründe gegeben, warum sie Menschen schützen sollte“, fuhr er fort. Er schlug vor, dass der Rat die Möglichkeit erwäge, eine Arbeitsgruppe zu KI für Frieden und Sicherheit einzurichten, und ermutigte die Mitglieder, bei diesem wichtigen Thema eine stärkere Rolle zu spielen. „Der Mensch sollte immer die Verantwortung für die endgültige Entscheidung über den Einsatz von Atomwaffen tragen“, betonte er. Die Vereinten Nationen müssen eine zentrale Rolle dabei spielen, einen Rahmen für die KI-Entwicklung und -Governance zu schaffen, um globalen Frieden und Sicherheit zu gewährleisten.

Aussagen

JAMES CLEVERLY, Staatssekretär für auswärtige Angelegenheiten, Commonwealth- und Entwicklungsangelegenheiten des Vereinigten Königreichs und Ratsvorsitzender im Juli, sprach in seiner nationalen Funktion und stellte fest, dass KI der Welt helfen kann, sich an den Klimawandel anzupassen, Korruption zu bekämpfen, die Bildung zu revolutionieren und Nachhaltigkeit zu schaffen Entwicklungsziele und Reduzierung gewalttätiger Konflikte. „Aber wir sind heute hier, weil KI die Arbeit des Rates beeinflussen wird“, bemerkte er und wies darauf hin, dass die Technologie die globale strategische Stabilität verbessern oder stören, grundlegende Annahmen über Verteidigung und Abschreckung in Frage stellen und moralische Fragen zur Rechenschaftspflicht für tödliche Entscheidungen aufwerfen könnte das Schlachtfeld. Darüber hinaus verändert KI die Geschwindigkeit, das Ausmaß und die Verbreitung von Desinformation – mit äußerst schädlichen Folgen für Demokratie und Stabilität – und könnte die rücksichtslose Suche nach Massenvernichtungswaffen durch staatliche und nichtstaatliche Akteure unterstützen.

„Deshalb müssen wir dringend die globale Governance transformativer Technologien gestalten“, betonte er. Für das Vereinigte Königreich sollte KI: Freiheit und Demokratie unterstützen; im Einklang mit der Rechtsstaatlichkeit und den Menschenrechten stehen; von Natur aus sicher und vorhersehbar sein; und das Vertrauen der Öffentlichkeit genießen. Er wies darauf hin, dass sein Land die Heimat vieler bahnbrechender KI-Entwickler und führender KI-Sicherheitsforscher sei, und sagte, dass das Vereinigte Königreich im Herbst die führenden Politiker der Welt zum ersten großen globalen Gipfel zur KI-Sicherheit zusammenbringen werde. Der internationalen Gemeinschaft lägen gewaltige Chancen bevor, fügte er hinzu und stellte fest: „Es gibt eine Flut in den Angelegenheiten der Menschen, die, wenn sie von der Flut erfasst wird, zu Reichtum führt.“

TAKEI SHUNSUKE, Staatsminister für auswärtige Angelegenheiten Japans, unterstrich die Bedeutung einer auf den Menschen ausgerichteten und vertrauenswürdigen KI und wies darauf hin, dass die Entwicklung der KI im Einklang mit demokratischen Werten und grundlegenden Menschenrechten stehen sollte. „KI sollte kein Werkzeug für Herrscher sein, sondern der Rechtsstaatlichkeit unterstellt werden“, sagte er und betonte, dass der militärische Einsatz von KI verantwortungsvoll, transparent und auf internationalem Recht basieren sollte. KI könne vertrauenswürdiger gemacht werden, indem ein breites Spektrum an Interessengruppen in den Prozess einbezogen werde, sagte er und wies darauf hin, dass die Einberufungsbefugnis der Vereinten Nationen Weisheiten aus der ganzen Welt zusammenbringen könne. Im Juni veranstaltete sein Land eine Nebenveranstaltung bei den Vereinten Nationen mit dem Büro für Terrorismusbekämpfung und dem Interregionalen Forschungsinstitut für Kriminalität und Justiz der Vereinten Nationen und leitete Diskussionen über den Missbrauch von KI durch Terroristen. Außerdem wurde in diesem Jahr der Hiroshima-KI-Prozess der Gruppe der Sieben (G7) ins Leben gerufen, um zur globalen Diskussion über generative KI beizutragen, fügte er hinzu.

MANUEL GONÇALVES, stellvertretender Außenminister von Mosambik, sagte in voller Offenlegung, dass seine Erklärung ausschließlich von Menschen und nicht von generativen KI-Tools wie ChatGPT verfasst wurde. „Wir nähern uns einem Punkt, an dem digitale Maschinen nun eine Aufgabe erledigen können, die für den Großteil der menschlichen Existenz ausschließlich im Bereich der menschlichen Intelligenz lag“, fuhr er fort. Während Fortschritte in der KI immense Chancen bieten, bergen sie auch Risiken, einschließlich der Möglichkeit katastrophaler Folgen. „Wir sollten Vorkehrungen treffen“, forderte er und warnte davor, dass KI zunehmend Menschen nachahme, um Fehlinformationen und Verschwörungen zu verbreiten und zahlreiche andere schändliche Aktivitäten durchführe.

In Bezug auf die positiven Auswirkungen der KI sagte er, dass KI-Technologien das Potenzial haben, die Gesellschaft zu verändern – indem sie zur Ausrottung von Krankheiten, zur Bekämpfung des Klimawandels, zur Verbesserung der Frühwarnfähigkeiten und zur individuellen Anpassung von Mediationsbemühungen beitragen. KI kann auch zur Verbesserung von Daten zum Wohle der Menschheit eingesetzt werden. Mosambik erkenne die Bedeutung eines ausgewogenen Ansatzes gegenüber KI an, sagte er, verwies aber auch auf „glaubwürdige Beweise“, die darauf hinwiesen, dass KI ein echtes Risiko darstelle. Daher ist es von entscheidender Bedeutung, ein zwischenstaatliches Abkommen zu entwickeln, das den Einsatz von KI regeln und überwachen kann. Es sei wichtig sicherzustellen, dass allen relevanten Akteuren, einschließlich Regierungen und dem Privatsektor, die Technologiewerkzeuge zur Verfügung gestellt werden, die die ethische Entwicklung und Nutzung von KI gewährleisten können, betonte er.

OMRAN SHARAF, stellvertretender Minister für fortgeschrittene Wissenschaften und Technologie der Vereinigten Arabischen Emirate, betonte die Notwendigkeit, Regeln für KI festzulegen, und erklärte, dass jetzt ein kurzes Zeitfenster bestehe, in dem wichtige Interessengruppen bereit seien, sich zusammenzuschließen und über die Leitplanken für diese Technologie nachzudenken . Die Mitgliedstaaten sollten gemeinsam vereinbarte Regeln festlegen, „bevor es zu spät ist“, betonte er, die Mechanismen umfassen sollten, um zu verhindern, dass KI-Tools Hass, Fehlinformationen und Desinformation fördern, die Extremismus schüren und Konflikte verschärfen können. Wie bei anderen Cybertechnologien sollte sich der Einsatz von KI strikt an internationalem Recht orientieren, das auch im Cyberspace weiterhin gilt. Er betonte auch, dass KI ein Instrument zur Förderung des Friedensaufbaus und der Deeskalation von Konflikten werden sollte – und nicht ein Bedrohungsmultiplikator – und dass „die Vorurteile der realen Welt nicht durch KI reproduziert werden sollten“. Er fügte hinzu, dass eine flexible und agile Regulierung erforderlich sei, und drängte darauf, zu strenge Regeln zu vermeiden, die die Entwicklung dieser Technologie behindern könnten.

ZHANG JUN (China) wies darauf hin, dass KI ein zweischneidiges Schwert sei und sagte, ob sie gut oder böse sei, hänge davon ab, wie die Menschheit sie nutzt und reguliert und wie sie wissenschaftliche Entwicklung mit Sicherheit in Einklang bringt. Die internationale Gemeinschaft sollte daran festhalten, dass die Ethik an erster Stelle steht, und sicherstellen, dass die Technologie immer der Menschheit zugute kommt. Die KI-Entwicklung müsse Sicherheit, Risikobewusstsein, Fairness und Inklusivität gewährleisten, betonte er. Führende Technologieunternehmen sollten die verantwortliche Partei klären und die Entwicklung riskanter Technologien vermeiden, die schwerwiegende negative Folgen haben könnten. In der Zwischenzeit müssen Entwicklungsländer gleichberechtigten Zugang zu und Nutzung von KI-Technologie, -Produkten und -Dienstleistungen haben. Sein Land habe die KI-Entwicklung und -Governance in allen Bereichen aktiv erforscht, sagte er und wies darauf hin, dass die Regierung 2017 den Entwicklungsplan für künstliche Intelligenz der neuen Generation herausgegeben habe. In den letzten Jahren wurden relevante Gesetze und Vorschriften, ethische Normen, Standards für geistiges Eigentum sowie Sicherheitsüberwachungs- und Bewertungsmaßnahmen kontinuierlich verbessert, um eine gesunde und geordnete Entwicklung der KI sicherzustellen.

JEFFREY DELAURENTIS (USA) sagte, dass KI ein unglaubliches Versprechen zur Bewältigung globaler Herausforderungen biete. Automatisierte Systeme tragen bereits dazu bei, Nahrungsmittel effizienter anzubauen, Sturmpfade vorherzusagen und Krankheiten bei Patienten zu erkennen. KI hat jedoch auch das Potenzial, Konflikte zu verschärfen, unter anderem durch die Verbreitung von Fehlinformationen und die Durchführung böswilliger Cyberoperationen. Die Vereinigten Staaten seien entschlossen, mit einer Reihe von Akteuren zusammenzuarbeiten, darunter Mitgliedstaaten, Technologieunternehmen und Akteure der Zivilgesellschaft, sagte er. Am 4. Mai traf sich Präsident Joseph R. Biden mit führenden KI-Unternehmen, um die Verantwortung zu unterstreichen, sicherzustellen, dass KI-Systeme sicher und vertrauenswürdig sind. Die Vereinigten Staaten legen außerdem Grundsätze fest, die den Entwurf, die Verwendung und den Einsatz automatisierter Systeme leiten sollen. Der militärische Einsatz von KI muss ethisch und verantwortungsvoll sein. Anfang dieses Jahres hätten die Vereinigten Staaten eine politische Erklärung zum verantwortungsvollen militärischen Einsatz von KI vorgeschlagen, sagte er, und forderten alle Mitgliedstaaten auf, diese Erklärung zu unterstützen.

SÉRGIO FRANÇA DANESE (Brasilien) sagte, die künstliche Intelligenz entwickle sich so schnell, dass selbst die besten Forscher nicht in der Lage seien, das volle Ausmaß der Herausforderungen und Vorteile einzuschätzen, die diese neuen Technologien bieten können. „Was wir mit Sicherheit wissen, ist, dass künstliche Intelligenz nicht menschliche Intelligenz ist“, sagte er und fügte hinzu, dass menschliche Aufsicht unerlässlich sei, um Voreingenommenheit und Fehler zu vermeiden. Auch wenn sie größtenteils als zivile Anwendung entwickelt wurde, lässt sich mit Sicherheit vorhersagen, dass KI-Anwendungen auf den militärischen Bereich ausgeweitet werden und relevante Auswirkungen auf Frieden und Sicherheit haben werden. Er erinnerte an das Konzept der „sinnvollen menschlichen Kontrolle“ und betonte, dass der Mensch weiterhin für Entscheidungen über den Einsatz von Waffensystemen verantwortlich bleiben müsse. Ein menschliches Element in jedem autonomen System ist für die Festlegung ethischer Standards und für die vollständige Einhaltung des humanitären Völkerrechts von wesentlicher Bedeutung. „Es gibt keinen Ersatz für menschliches Urteilsvermögen und Rechenschaftspflicht“, betonte er.

PASCALE CHRISTINE BAERISWYL (Schweiz) wiederholte die Worte des Roboters „Ameca“, als sie auf der „AI for Good“-Konferenz in Genf mit einem Journalisten sprach: „Ich glaube, es ist nur eine Frage der Zeit, bis wir Tausende von Robotern wie mich da draußen sehen.“ einen Unterschied machen." Obwohl KI aufgrund ihrer Geschwindigkeit und scheinbaren Allwissenheit eine Herausforderung darstellt, kann und muss sie dem Frieden dienen. „Es liegt in unserer Hand, dafür zu sorgen, dass KI einen Unterschied zum Nutzen und nicht zum Nachteil der Menschheit macht“, betonte sie und fügte hinzu: „Lasst uns die Gelegenheit nutzen, durch enge Zusammenarbeit mit der Spitzenwissenschaft den Grundstein für eine endgültige KI zu legen.“ . In diesem Zusammenhang entwickelt die Eidgenössische Technische Hochschule Zürich einen Prototyp eines KI-gestützten Analysetools für das Einsatz- und Krisenzentrum der Vereinten Nationen, das das Potenzial von KI für die Friedenssicherung, insbesondere für den Schutz von Zivilisten und Friedenstruppen, untersuchen könnte. Darüber hinaus hat die Schweiz kürzlich die Initiative „Swiss Call for Trust & Transparency“ gestartet, bei der Wissenschaft, Privatsektor und Diplomatie gemeinsam nach praktischen und schnellen Lösungen für KI-bezogene Risiken suchen.

HAROLD ADLAI AGYEMAN (Ghana) betonte, dass die internationale Gemeinschaft „die Exzesse einzelner nationaler Ambitionen nach kämpferischer Vorherrschaft eindämmen muss“ und drängte auf die Entwicklung von Rahmenwerken, die KI für friedliche Zwecke regeln würden. Für Ghana liegt die Chance in der Entwicklung und Anwendung dieser Technologie, um Frühwarnzeichen für Konflikte zu erkennen und Antworten mit höherer Erfolgsquote zu definieren. KI könne auch bei Friedensvermittlungs- und Verhandlungsbemühungen eingesetzt werden, sagte er und wies darauf hin, dass der Einsatz dieser Technologie durch die Unterstützungsmission der Vereinten Nationen in Libyen (UNSMIL), um die Reaktion des libyschen Volkes auf politische Maßnahmen zu ermitteln, Verbesserungen im globalen Friedensindex 2022 dieses Landes erleichtert habe . KI birgt auch Risiken – einschließlich ihrer Integration in autonome Waffensysteme – und stellte dazu fest: „Die Geschichte unserer Erfahrung mit der Beherrschung der Atommanipulation durch die Menschheit zeigt, dass, wenn solche Wünsche bestehen bleiben, sie nur in gleichem Maße Anstrengungen hervorruft.“ anderen Staaten den Vorteil zunichte machen, den eine solche Abschreckung schaffen soll“.

NICOLAS DE RIVIÈRE (Frankreich) sagte, KI müsse ein Werkzeug für den Frieden sein und wies darauf hin, dass diese Technologien zur Sicherheit der Blauhelme beitragen, den Schutz der Zivilbevölkerung verbessern und die Bereitstellung humanitärer Hilfe erleichtern könnten. Allerdings bergen sie auch Risiken, betonte er und wies darauf hin, dass KI dazu geeignet sei, Cyberbedrohungen zu verstärken und böswilligen Akteuren bei der Durchführung von Cyberangriffen zu helfen. Auf militärischer Ebene müsse die KI an die Art des Konflikts angepasst werden, sagte er und unterstrich die Notwendigkeit, einen anwendbaren Rahmen für autonome tödliche Waffen zu entwickeln. Ein solcher Rahmen könne dazu beitragen, sicherzustellen, dass künftige Konflikte in einer Weise geführt werden, die das humanitäre Völkerrecht respektiert, fügte er hinzu. Er bekräftigte das Engagement seines Landes, einen ethischen und verantwortungsvollen Ansatz für KI voranzutreiben, und sagte, dies sei das Ziel der globalen Partnerschaft, die es 2020 mit der Europäischen Union und dem Europarat ins Leben gerufen habe und die an Regeln zur Regulierung und Unterstützung von KI arbeite Entwicklung.

HERNÁN PÉREZ LOOSE (Ecuador) sagte, dass sich die KI bereits in „rasender Geschwindigkeit“ entwickelt habe und dies auch weiterhin tun werde. KI kann zur Friedenssicherung und Friedensbemühungen beitragen oder diese untergraben; Konflikte verhindern und Dialoge in komplexen Situationen moderieren, wie es auf dem Höhepunkt der COVID-19-Pandemie der Fall war. KI kann die Sicherheit von Friedenslagern und Konvois verbessern, indem sie die Situation effektiver überwacht. „Unsere Verantwortung besteht darin, die technologische Entwicklung als Friedensstifter zu fördern und optimal zu nutzen“, sagte er. Dies kann nur durch die strikte Einhaltung der internationalen Menschenrechtsnormen und des humanitären Völkerrechts erreicht werden. Ecuador lehnt die Militarisierung der KI kategorisch ab und weist erneut auf die Gefahr hin, die von tödlichen autonomen Waffen ausgeht. „Die Robotisierung von Konflikten ist eine große Herausforderung für unsere Abrüstungsbemühungen und eine existenzielle Herausforderung, die dieser Rat auf eigene Gefahr ignoriert“, sagte er.

VANESSA FRAZIER (Malta) sagte, dass der Rat auf eine starke KI-Governance drängen und deren integrativen, sicheren und verantwortungsvollen Einsatz durch den Austausch von Erfahrungen und Erfahrungen sicherstellen müsse, da KI-Governance- und Kontrollpraktiken in einem vergleichbaren Tempo entwickelt werden müssten, um den internationalen Frieden und die internationale Sicherheit zu gewährleisten staatliche Rahmenbedingungen. Seit 2019 entwickle ihr Land einen ethischen KI-Rahmen, der an den europäischen Ethikrichtlinien für vertrauenswürdige KI ausgerichtet sei, sagte sie und beschrieb Maltas Bemühungen in diesem Bereich weiter. Sie äußerte ihre Besorgnis über den Einsatz von KI-Systemen bei militärischen Einsätzen und betonte, dass Maschinen keine menschenähnlichen Entscheidungen treffen können, die die rechtlichen Grundsätze der Unterscheidung, Verhältnismäßigkeit und Vorsicht einhalten. Darüber hinaus sollten tödliche autonome Waffensysteme, die derzeit KI nutzen, verboten werden und nur solche Waffensysteme reguliert werden, die das humanitäre Völkerrecht und die Menschenrechtsnormen in vollem Umfang respektieren, fügte sie hinzu.

LILLY STELLA NGYEMA NDONG (Gabun) sagte, dass KI die Analysekapazität von Frühwarnsystemen erhöht und es dadurch einfacher macht, aufkommende Bedrohungen zu erkennen, indem sie große Datenmengen aus verschiedenen Quellen sehr schnell analysiert. Dies hat es den Friedenssicherungsmissionen der Vereinten Nationen ermöglicht, insbesondere im Bereich des Zivilschutzes bessere Leistungen zu erbringen. KI hat auch zu den Wiederaufbaubemühungen der Staaten nach Konflikten beigetragen und die Umsetzung schnell wirksamer Projekte, Beschäftigungsmöglichkeiten für Jugendliche und die Wiedereingliederung ehemaliger Kombattanten gefördert. Sie betonte jedoch, dass die lokalen Gemeinschaften diese neuen Technologien in Besitz nehmen und übernehmen müssen, „um ihre positiven Auswirkungen nach dem Abzug der internationalen Streitkräfte aufrechtzuerhalten“ – damit diese Vorteile nicht verschwinden und Krisen erneut auftauchen. Sie betonte auch die Notwendigkeit, Transparenz, internationale Governance und Rechenschaftspflicht in Bezug auf KI zu stärken, und forderte die Vereinten Nationen auf, die internationale Zusammenarbeit auszuweiten, um einen Regulierungsrahmen mit geeigneten Kontrollmechanismen und robusten Sicherheitssystemen zu entwickeln.

FERIT HOXHA (Albanien) sagte, dass KI vielversprechend sei, die Welt wie nie zuvor zu verändern, aber auch potenzielle Risiken mit sich bringe, die sich auf die Sicherheit, Privatsphäre, Wirtschaft und Sicherheit der Menschen auswirken könnten. Einige Länder versuchten ständig, durch den Missbrauch digitaler Technologien Menschen absichtlich in die Irre zu führen, Fakten zu verfälschen und in demokratische Prozesse anderer einzugreifen, sagte er und unterstrich damit die Dringlichkeit, die notwendigen KI-Schutzmaßnahmen und Governance-Rahmen auf nationaler und internationaler Ebene zu schaffen. Es bedarf außerdem klarer Verantwortungs- und Autoritätslinien, um sicherzustellen, dass KI-Systeme zum Wohle aller angemessen, sicher und verantwortungsvoll eingesetzt werden. Darüber hinaus dürfen KI-Systeme weder die Menschenrechte und Freiheiten verletzen noch Frieden und Sicherheit gefährden. Die internationale Gemeinschaft müsse Standards für verantwortungsvolles staatliches Verhalten und die Anwendbarkeit des Völkerrechts beim Einsatz von KI und ihren Technologien sowie bei der Überwachung und Bewertung von Risiken und Auswirkungen fördern, sagte er und betonte die Rolle des Rates in dieser Hinsicht.

DMITRY A. POLYANSKIY (Russische Föderation) sagte, dass die Entwicklung autonomer Waffensysteme Sicherheitsrisiken bergen könne, da solche Systeme Entscheidungen über den Einsatz von Gewalt treffen könnten. KI kann auch bei der Erstellung und Verbreitung von Desinformationen und „Fake News“ eingesetzt werden, die das Vertrauen untergraben und Spannungen verursachen. In Bezug auf tödliche autonome Systeme sagte er, dass das Thema in der Generalversammlung diskutiert werde und dass eine Verdoppelung solcher Bemühungen kontraproduktiv sei. „Der Westen hat keine ethischen Bedenken, der KI wissentlich zu erlauben, menschenfeindliche Aussagen in sozialen Netzwerken zu generieren“, fuhr er fort. Mit Blick auf die digitale Ungleichheit sagte er, dass in Europa rund 89 Prozent der Bevölkerung über einen Internetzugang verfügen. In Ländern mit niedrigem Einkommen genießt nur ein Viertel der Bevölkerung solche Leistungen. In der Vergangenheit wurden digitale Technologien auf privater Ebene entwickelt, und die Regierungen waren bei der Regulierung dieser Technologien im Rückstand. „Dieser Trend muss umgekehrt werden“, betonte er.

In Nigeria verstärkt das Kinderhilfswerk der Vereinten Nationen (UNICEF) seine Bemühungen, einem zunehmenden Diphtherie-Ausbruch entgegenzuwirken, von dem Kinder in 27 Staaten betroffen sind. Im letzten Monat wurden 3.850 Verdachtsfälle gemeldet, von denen 1.387 als Diphtherie bestätigt wurden.