top of page
cover.jpg

Experten fordern Regulierung, um „Kontrollverlust“ über KI zu verhindern 09/02/2025

  • Autorenbild: Ana Cunha-Busch
    Ana Cunha-Busch
  • 8. Feb.
  • 3 Min. Lesezeit

Illustrative KI-Fotografie von Kirill KUDRYAVTSEV
Illustrative KI-Fotografie von Kiril KUDRYAVTSEV

Von AFP - Agence France Presse


Experten fordern Regulierung, um „Kontrollverlust“ über KI zu verhindern

Von Daxia ROJAS


Experten aus aller Welt haben eine stärkere Regulierung der KI gefordert, um zu verhindern, dass sie der menschlichen Kontrolle entgleitet, während sich die Staats- und Regierungschefs der Welt in Paris zu einem Gipfeltreffen über die Technologie versammeln.


Frankreich, das das Treffen am Montag und Dienstag gemeinsam mit Indien ausrichtet, hat beschlossen, den Schwerpunkt auf die „Handlungsfähigkeit“ der KI im Jahr 2025 zu legen, anstatt Sicherheitsbedenken in den Vordergrund zu stellen, wie bei früheren Treffen in Bletchley Park, Großbritannien, im Jahr 2023 und in der koreanischen Hauptstadt Seoul im Jahr 2024.


Die französische Vision sieht vor, dass Regierungen, Unternehmen und andere Akteure sich für eine globale Governance für KI aussprechen und sich zur Nachhaltigkeit verpflichten, ohne verbindliche Regeln festzulegen.


„Wir wollen unsere Zeit nicht damit verbringen, nur über die Risiken zu sprechen. Es gibt auch den Aspekt der sehr realen Chancen“, sagte Anne Bouverot, KI-Beauftragte von Präsident Emmanuel Macron.


Max Tegmark, Direktor des in den USA ansässigen Future of Life Institute, das regelmäßig vor den Gefahren der KI warnt, sagte gegenüber AFP, dass Frankreich die Gelegenheit zum Handeln nicht verpassen sollte.


„Frankreich hat sich auf wunderbare Weise für die internationale Zusammenarbeit eingesetzt und hat die Möglichkeit, den Rest der Welt anzuführen“, sagte der MIT-Physiker.


„Hier auf dem Pariser Gipfel gibt es eine große Weggabelung, und die muss man nutzen.“


Tegmarks Institut unterstützte am Sonntag den Start einer Plattform namens Global Risk and AI Safety Preparedness (GRASP), die darauf abzielt, die wichtigsten Risiken im Zusammenhang mit KI und die weltweit entwickelten Lösungen zu erfassen.


„Wir haben rund 300 Instrumente und Technologien als Reaktion auf diese Risiken identifiziert“, sagte GRASP-Koordinator Cyrus Hodes.


Die Ergebnisse der Studie werden an den OECD-Club der reichen Länder und die Mitglieder der Global Partnership on Artificial Intelligence (GPAI) weitergegeben, einer Gruppe von fast 30 Nationen, darunter die wichtigsten europäischen Volkswirtschaften, Japan, Südkorea und die Vereinigten Staaten, die am Sonntag in Paris zusammentreffen werden.


Letzte Woche wurde am Donnerstag auch der erste internationale KI-Sicherheitsbericht vorgestellt, der von 96 Experten erstellt und von 30 Ländern unterstützt wurde: den Vereinten Nationen, der EU und der OECD.


Die in dem Dokument beschriebenen Risiken reichen von den bekannten, wie gefälschten Online-Inhalten, bis hin zu den viel alarmierenderen.


„Es gibt immer mehr Belege für zusätzliche Risiken, wie biologische Angriffe oder Cyberangriffe“, sagte Yoshua Bengio, Koordinator des Berichts und renommierter Informatiker, gegenüber AFP.


Langfristig befürchtet der Turing-Preisträger von 2018, Bengio, einen möglichen ‚Kontrollverlust‘ des Menschen über KI-Systeme, der möglicherweise durch ‚ihren eigenen Überlebenswillen‘ motiviert ist.


„Noch vor sechs Jahren dachten viele Menschen, dass die Beherrschung der Sprache auf dem Niveau von ChatGPT-4 Science-Fiction sei, und dann passierte es“, sagte Tegmark und bezog sich dabei auf den Chatbot von OpenAI.


„Das große Problem ist jetzt, dass viele Entscheidungsträger noch nicht verstanden haben, dass wir näher daran sind, eine künstliche allgemeine Intelligenz (AGI) zu schaffen, als herauszufinden, wie wir sie kontrollieren können.“


Künstliche allgemeine Intelligenz (AGI) bezeichnet eine künstliche Intelligenz, die dem Menschen in allen Bereichen ebenbürtig oder überlegen ist.


Dass sie in einigen Jahren Realität sein wird, wurde von Menschen wie dem Leiter von OpenAI, Sam Altman, angekündigt.


„Wenn man sich die Geschwindigkeit ansieht, mit der diese Ressourcen zunehmen, könnte man meinen, dass wir 2026 oder 2027 so weit sind„, sagte Dario Amodei, Altmans Kollege beim Konkurrenten Anthropic, im November.


„Im schlimmsten Fall werden diese amerikanischen oder chinesischen Unternehmen die Kontrolle darüber verlieren, und danach wird die Erde von Maschinen regiert werden“, sagte Tegmark.


Stuart Russell, Professor für Informatik an der Universität Berkeley in Kalifornien, sagte, dass eine seiner größten Befürchtungen „Waffensysteme sind, bei denen die KI, die das Waffensystem steuert, entscheidet, wer angegriffen wird, wann angegriffen wird und so weiter“.


Russell, der auch Koordinator der International Association for Safe and Ethical AI (IASEI) ist, sieht die Regierungen in der Verantwortung, Schutzmaßnahmen gegen waffenfähige KI zu ergreifen.


Tegmark zufolge ist die Lösung ganz einfach: Der KI-Sektor sollte genauso behandelt werden wie alle anderen Sektoren.


„Bevor jemand außerhalb von Paris einen neuen Kernreaktor bauen kann, muss er von der Regierung ernannten Experten nachweisen, dass dieser Reaktor sicher ist. Dass man die Kontrolle über ihn nicht verlieren wird ... Das Gleiche sollte für KI gelten“, so Tegmark.


dax/tgb/rl


 
 
 

Kommentare


Newsletter

Abonnieren Sie jetzt den Green Amazon Newsletter und begeben Sie sich auf eine Reise der Entdeckung, des Bewusstseins und des Handelns zugunsten des Planeten.

Email erfolgreich gesende

bg-02.webp

Sponsoren und Kooperationspartner

Unsere Sponsoren und Kooperationspartner spielen eine Schlüsselrolle bei der Realisierung innovativer Projekte, Bildungsinitiativen und der Förderung des Umweltbewusstseins. 

LOGO EMBLEMA.png
Logo Jornada ESG.png
Logo-Truman-(Fundo-transparente) (1).png
  • Linkedin de Ana Lucia Cunha Busch, redatora do Green Amazon
  • Instagram GreenAmazon

 

© 2024 TheGreenAmazon

Datenschutzrichtlinie, ImpressumCookie-Richtlinie

Developed by: creisconsultoria

Spende über PayPal tätigen
WhatsApp Image 2024-04-18 at 11.35.52.jpeg
IMG_7724.JPG
bottom of page