„Awful AI“ – die vielen fragwürdigen Einsatzgebiete Künstlicher Intelligenz
Künstliche Intelligenz, kurz KI (auf Englisch Artificial Intelligence, AI) hat uns in den vergangenen Jahren viele Erleichterungen im Alltag gebracht – KI-Algorithmen empfehlen uns passende Filme auf Streaming-Plattformen oder Artikel beim Einkaufen im Internet, KI-basierte Lautsprecher sagen uns durch Spracherkennung wie das Wetter wird und viele Firmen experimentieren mit Autos, die dank KI autonom fahren können.
Wie so vieles hat aber auch die Künstliche Intelligenz ihre Schattenseiten und Risiken: innerhalb der EA-Community besteht schon lange die Sorge, dass binnen weniger Jahrzehnte eine KI entwickelt werden könnte, die intelligenter als der Mensch ist – mit nicht abzuschätzenden Folgen für uns alle. Schon jetzt wird KI oft für Aktivitäten verwendet, die höchst fragwürdig erscheinen.
David Dao, Doktorand an der ETH Zürich, hat auf GitHub eine Liste mit einer Auswahl solcher Aktivitäten erstellt, die es in sich hat: so sind manche KI-Algorithmen offensichtlich diskriminierend, andere werden dafür verwendet, um Massenproteste vorherzusagen. Die Liste zeigt einmal mehr, warum viele in der EA-Community den Bereich AI Safety für so wichtig halten.
Hier geht‘s zur Liste auf GitHub: https://github.com/daviddao/awful-ai
Und hier noch ein Artikel von 80.000 Hours zum Thema AI Safety im Allgemeinen: https://80000hours.org/problem-profiles/positively-shaping-artificial-intelligence/
Foto Credit: (C) Flickr / IBM Research