top

Lupus alpha

25.06.2024

10 Risiken, die Sie im Umgang mit KI kennen sollten

Die geopolitischen Risiken durch die hohe Abhängigkeit der KI-Industrie von Taiwan liegen für viele auf der Hand. Daneben bringt der Einsatz von KI jedoch noch weitere, weniger offensichtliche Risiken mit sich, etwa die Komplexität und Fehleranfälligkeit der Algorithmen oder die höhere Gefahr von Cyberattacken. Und was machen wir, wenn die Maschinen schlauer werden als wir selbst und sich gegen uns wenden? Können wir dann noch rechtzeitig den Stecker ziehen? Zeit für eine kritische Analyse des KI-Hypes.

von Marcus Ratz, Partner und Portfolio Manager Small & Mid Caps Europa

KI hat inzwischen in jede Branche Einzug gehalten. Mit der jüngsten Entscheidung von Apple, KI in seine Produkte zu integrieren, hat die Technologie nun auch den Mainstream erreicht. Doch so sehr das Potenzial von KI beeindruckt, es gibt auch Schattenseiten. Die zehn wichtigsten Risiken habe ich Ihnen im Folgenden zusammengestellt.

1. Der KI-Boom hängt am Schicksal Taiwans

Ein Krieg um Taiwan würde wirtschaftlich alle Krisen der letzten Jahre in den Schatten stellen. Der Schaden für die Weltwirtschaft könnte 10 Billionen Dollar betragen, schätzt der Wirtschaftsdienst Bloomberg. Bitte verstehen Sie mich nicht falsch: Sollte China Taiwan tatsächlich angreifen, hätte die Welt größere Probleme als das Ende der KI-Party. Aber angesichts der Erfahrungen aus dem Ukraine-Krieg ist die Konzentration auf Taiwan grob fahrlässig, wenn auch kurzfristig alternativlos. Da lässt sich nur hoffen, dass die aktuellen Bemühungen von TSMC, ihre Lieferketten zu diversifizieren, u.a. mit der geplanten Chipfabrik in Dresden, bald Früchte trägt.

2. KI-Modelle sind von Demenz bedroht

Generative KI ist eine große Komprimierungsmaschine für all das, was wir Menschen in den letzten Jahrzehnten im Internet gespeichert haben. Eine schottisch-deutsche Forschungsgruppe kommt zu dem Schluss, dass die mit menschlicher Kreativität geschaffenen Originale für KI bereits 2026 erschöpft sein könnten. Die nächste Generation von KI-Anwendungen werde daher unweigerlich auch an Datensätzen trainiert, die nicht von Menschen, sondern von früheren KI-Anwendungen stammen. Die Folge ist, dass die KI-Modelle immer wieder dieselben Inhalte "durchkauen", wodurch sie irgendwann kollabieren, warnt auch eine Studie der Universitäten Oxford, Cambridge und London mit dem Titel "Der Fluch der Wiederkehr".

3. Zu wahrer Intelligenz fehlt KI der Körper

Die Denkschule der Embodied Cognition geht davon aus, dass Intelligenz eng mit körperlichen Empfindungen verbunden ist. Wenn wir beim Frühstück zum Beispiel zur Müslischale greifen, berechnen wir im Kopf nicht millimetergenau, wo unsere Hand die Schale berühren soll. Unsere Hand-Auge-Koordination und auch die Hand als Sensor erledigen die Berechnungen. KI kann menschenähnliche Kognition demnach nur entwickeln, wenn sie wie das menschliche Gehirn mit der realen Welt verbunden ist. Die Robotik kann KI-Systemen zwar physische Verbindungen nachbilden, etwa mit Sensoren, Kameras und Mikrofonen. Wie weit das die Leistungsfähigkeit der Modelle fördert, ist jedoch noch nicht bekannt.

4. KI-basierte Cyberangriffe stellen eine existenzielle Bedrohung dar

Cyberkriminelle nutzen KI zunehmend für ihre illegalen Aktivitäten. So können sie zum Beispiel maschinelles Lernen einsetzen, um große Datenmengen zu analysieren und Schwachstellen in fremden Computersystemen aufzudecken. Gelingt es ihnen, in diese einzudringen, besteht die Gefahr, dass Daten und Algorithmen unbemerkt manipuliert werden, was das Fundament von KI-Entscheidungssystemen untergräbt und zu gravierenden Fehlentscheidungen führt.

5. Deepfake: Gefahr von Fälschungen nimmt zu

Mit KI können gefälschte Videos oder Bilder, so genannte Deepfakes, erstellt werden, die kaum von der Wirklichkeit zu unterscheiden sind. Sie können dazu verwendet werden, Menschen zu erpressen, falsche Informationen – zum Beispiel in Wahlprozessen – zu verbreiten oder gezielt Rufschädigungskampagnen durchzuführen, wie kürzlich gegen die amerikanische Pop-Sängerin Taylor Swift. Da ist es eine gute Nachricht, dass KI zukünftig dafür eingesetzt werden soll, um Deepfakes zu erkennen. KI kontrolliert also zukünftig KI.

6. KI verändert den Arbeitsmarkt

Die Automatisierung hat bisher vor allem manuelle Tätigkeiten in der Produktion und industriellen Fertigung revolutioniert. KI wirkt sich dagegen stark auf Bürotätigkeiten aus, zum Beispiel in der Programmierung, im Kundensupport oder in der Administration. Ob hier aber so viele Jobs wegfallen, wie allgemein befürchtet, wird sich erst noch zeigen. Sicher ist dagegen schon heute, dass es für Unternehmen unabdingbar ist, die KI-Kompetenzen ihrer Mitarbeiterinnen und Mitarbeiter zu fördern, um sie in die Lage zu versetzen, mit KI zu interagieren. Durch neue Kompetenzen lassen sich zudem auch ganz neue Jobs schaffen.

7. KI-gesteuerte Entscheidungsprozesse werden zur Black Box 

Bei der Optimierung von Prozessen müssen sich Unternehmen darauf verlassen können, dass der durch KI generierte Code richtig ist und den erwünschten Output erzielt. Dies erfordert die Überprüfbarkeit des Codes, was bei kleinen Datenmengen noch überschaubar ist, bei größeren Datenmengen aber schnell ausufern kann. Je nach Kontext und Anfrage an die KI können diese Prozesse stark variieren und sind daher zunehmend schwer nachvollziehbar. Wenn Daten, die zum Trainieren der Algorithmen verwendet werden, nicht repräsentativ sind oder wenn die Algorithmen selbst nicht richtig kalibriert sind, kann es zudem zu unfairen Entscheidungen kommen.

8. Zu strenger Datenschutz führt zu "Datenkolonialismus"

Der umfassende Datenschutz, den wir in Europa durch die DSGVO und den "AI Act" haben, ist grundsätzlich zu begrüßen. Er führt aber leider zu Ausweichstrategien: Westliche Unternehmen sammeln verstärkt Daten von Menschen in Afrika, wo persönliche Daten nicht durch dieselben strengen Datenschutzbestimmungen geschützt sind. Digitalrechtler ziehen daher Parallelen zur Geschichte des Kolonialismus, als europäische Kolonialmächte begannen, große Teile der Welt auszubeuten. Hier wiederholt sich die Geschichte, kritisieren sie, nur auf Datenebene.

9. KI-Modelle sind Stromfresser

KI soll bei der Bewältigung der Klimakrise helfen. Dabei verbrauchen die rechenintensiven KI-Modelle selbst enorme Mengen an Energie. Nach Berechnungen des Hasso-Plattner-Instituts verbrauchen Rechenzentren heute 4 bis 5 Prozent des weltweiten Energieverbrauchs. Nimmt man die Nutzung digitaler Technologien wie Laptops und Smartphones dazu, seien 8 Prozent erreicht. Schätzungen gehen davon aus, dass der Verbrauch in den nächsten Jahren auf 30 Prozent ansteigen wird.

10. KI kann sich gegen uns richten 

Kann KI eines Tages schlauer werden als wir selbst? Diese Frage haben Sie sich vermutlich auch schon einmal gestellt. Dass dieses Szenario nicht unwahrscheinlich ist, hat eine Studie der Oxford University gezeigt: Wenn fortgeschrittene KI-Systeme das Belohnungssystem, mit dem sie trainiert werden, durchschauen und manipulieren, werden sie versuchen, das System zu kontrollieren und entwickeln dafür einen unstillbaren Appetit auf Energie und Material. Die Chancen, dann den Stecker zu ziehen, um die KI wieder unter Kontrolle zu bringen, stehen schlecht, meint KI-Pionier Jürgen Schmidhuber. “Keiner hat Zugang zu allen Steckern. Und Menschen haben oft unterschiedliche Ideen davon, wann welche Stecker gezogen werden sollten. Und einige werden fasziniert davon sein, KIs ohne Stecker zu bauen...”

Ich hoffe, dass ich Sie durch diese Auflistung nicht verunsichert und vom täglichen Öffnen Ihrer ChatGPT-Anwendung abgehalten habe?

Bedenken gegenüber KI haben auch Führungspersönlichkeiten wie Elon Musk oder Apple-Gründer Stephen Wozniak geäußert. Sie fordern eine Verlangsamung der KI-Entwicklung, um Zeit für Evaluierung und Regelsetzung zu haben.

So weit würde ich nicht gehen. Es geht vielmehr darum, ein angemessenes Risikobewusstsein zu entwickeln und nicht um einen Innovationsstopp. Wir sollten KI weiter fördern und versuchen, einen verantwortungsvollen Umgang mit der Technologie zu finden, also mit Augenmaß Richtlinien zu etablieren, die deren Missbrauch verhindern und gleichzeitig ihr enormes Potenzial bewahren. Es liegt in unserer aller Verantwortung, KI in positive Bahnen zu lenken und sie als Werkzeug für Fortschritt und Gemeinwohl zu nutzen.

 

Weitere Informationen
Allgemeine Fragen oder Anregungen:
Annett Haubold
PR-Managerin, Communications
+49 69 / 36 50 58 - 7403
PRESSE
Pia Kater
Pressesprecherin, Communications
+49 69 / 36 50 58 - 7401
ZUM PRESSEBEREICH