#008 Zusammenfassung von "Why AI Will Save the World"
Die ethisch-moralische Frage bei der Verwendung von KI zu beantworten, ist nicht ganz einfach. Eine umfassende und interessante Abwägung trifft Marc Andreessen in seinem Artikel "Why AI Will Save the World".
Die ethisch-moralische Frage bei der Verwendung von KI zu beantworten, ist nicht ganz einfach. Eine umfassende und interessante Abwägung trifft Marc Andreessen in seinem Artikel "Why AI Will Save the World".
Die erste Erkenntnis: KI wird die Welt und die Menschheit nicht zerstören (eine gute Nachricht, wie ich finde).
Die vorhandene menschliche Intelligenz hat uns über Jahrtausende geholfen, unseren Lebensstandard zu verbessern: in der Arbeitsleistung, in der Entscheidungsfindung, in der Kreativität, in den Naturwissenschaften ebenso wie in der Kommunikation, in der Kultur und im Erlernen neuer Fähigkeiten. Mit der KI können wir diese erworbene menschliche Intelligenz nun noch umfassender nutzen und erweitern, wenn wir es zulassen. Sei es für die Entwicklung neuer Technologien, Medikamente, (unerwarteter) Lösungen für alle möglichen Probleme. In allen Bereichen, in allen Altersgruppen, in allen Aufgabenfeldern finden wir einen Mehrwert:
- Als Lernbegleiter für Kinder und Schüler,
- als Coach oder Berater, um Chancen und Herausforderungen im Alltag optimal zu nutzen oder zu meistern
- In der Wissenschaft oder medizinischen Forschung, um Daten und Ergebnisse auszutauschen, zu interpretieren und daraus zu lernen.
- Für Führungskräfte, Ausbilder, Lehrer, politische Entscheidungsträger.
Kurzum: Das Potenzial für Produktivitätssteigerungen - und damit für Wirtschaftswachstum - ist enorm, weil das Lernen aus vorhandenem Wissen, Erfahrungen, Schlussfolgerungen um ein Vielfaches erweitert werden kann, ohne durch „menschliche Fehler oder subjektive Interpretationen“ verfälscht zu werden. Und das Ganze verbunden mit einem stets nachsichtigen, verständnisvollen KI-Coach, Mentor, Berater.
Wo liegt also das Problem?
In der öffentlichen Diskussion dominieren die Befürchtungen, dass KI viele Arbeitsplätze vernichten wird, dass sie uns Entscheidungen aus der Hand nehmen wird - mit möglicherweise schrecklichen Folgen -, dass sie die Gesellschaft zerstören wird. Historisch gesehen hat jede neue technische Entwicklung zunächst zu großer Verunsicherung bis hin zur Panik geführt. Sei es das elektrische Licht, das Auto oder das Internet. Und zugegeben, neue Technologien können natürlich auch zu schlechten Ergebnissen führen, obwohl sie unser Wohlergehen durchaus steigern können. Eine natürliche Skepsis ist also durchaus angebracht, auch wenn das Maß an Panik oder Hysterie irrational erscheint. Aber genau diese Reaktion führt dazu, dass neue KI-Gesetze, Einschränkungen und Bedenken auch politisch motiviert sind.
Es gilt daher, die geäußerten Bedenken rational zu prüfen und abzuwägen:
- Das Argument, dass KI trotz ihrer Nützlichkeit die Menschheit vernichten wird - so wie Feuer lebensnotwendig und zerstörerisch sein kann - kann laut Adreessen eher entkräftet werden, wenn man bedenkt, dass es sich um einen mathematischen Computercode handelt, der von Menschen gebaut, benutzt und kontrolliert wird, der keinen eigenen Verstand entwickeln wird und der kein Motiv hat, die Menschheit zu vernichten. Die von den KI-Skeptikern benannten potenziellen Risiken sind ebenso wenig beweisbar wie die Annahme, dass sie eintreten oder nicht. Kritisch wird es dann, wenn man es mit „Extremisten“ zu tun hat - die es auch bei vielen anderen Themen gibt und die nicht neu sind -, die ihre extremen Meinungen ohne weitere Belege verbreiten und die nicht die Zukunft der Gesetzgebung und der Gesellschaft bestimmen sollten.
- Dass KI unsere Gesellschaft ruinieren wird, indem sie Ergebnisse hervorbringt, die der Menschheit schaden, scheint auch der Social-Media-Diskussion zu ähneln: Natürlich unterliegt jede Plattform einer gewissen Einschränkung: Was ist mit Hate Speech oder Desinformation? Bis hierhin scheint es einen Konsens zu geben, auch über Verbote. Aber die Frage ist, wer die Regeln aufstellt, wie weit sie gehen, wie meinungsbeschränkend sie sind, wie weit die „Gedankenpolizei die KI unterdrückt“. Nach Ansicht des Autors wird der Kampf darum, was KI sagen oder generieren darf, noch wichtiger sein als der Kampf um die Regulierung sozialer Medien.
- KI vernichtet unsere Arbeitsplätze: Die immer wieder geäußerte Befürchtung, dass technologische Entwicklungen Arbeitsplätze vernichten, ist nicht neu, auch wenn sich in der Vergangenheit gezeigt hat, dass dies nicht der Fall ist. Outsourcing und Automatisierung führten zu Veränderungen, aber nicht zu Massenentlassungen. Und KI wird das sicherlich auch tun, vielleicht sogar das Gegenteil bewirken: Effizientere Arbeit führt zu mehr Produktion, was wiederum Preissenkungen ermöglicht. Das wiederum führt zu mehr Kaufkraft, mehr Nachfrage und mehr Arbeitsplätzen. Und möglicherweise Lohnerhöhungen aufgrund höherer Produktivität.
- KI führt zu wachsender Ungleichheit: Ungleichheit entsteht, wenn KI nur in einzelnen Bereichen eingesetzt wird und dort Vorteile schafft (siehe vorheriges Argument). Die Besitzer dieser Technologien sind aber laut Andreessen daran interessiert, sie breit zu verkaufen und einzusetzen, den Preis für alle attraktiv zu gestalten - daher gibt es bereits viele kostenlose KI-Tools - und so Reichweite und Marktmacht zu maximieren. Ungleichheit entsteht dann durch das Vorenthalten der Technologie und dadurch, dass KI nicht genutzt wird, um diese Ungleichheit zu reduzieren.
- Führt KI dazu, dass schlechte Menschen schlechte Dinge tun? Diese Tatsache lässt sich nicht leugnen, so wie Feuer und Stein auch negativ eingesetzt werden können. Erschwerend kommt hinzu, dass KI leicht zugänglich ist: Mathematik und Code, Modelle und Open-Source-Anwendungen. Alles ist frei verfügbar. Nur durch Gesetzgebung und Strafen für „kriminelle„ oder kriminelle Nutzung von KI können wir versuchen, diese negativen Auswirkungen zu verhindern oder zu sanktionieren. Oder durch den Einsatz von KI, um solche Taten möglichst zu verhindern, in der Cyber-Verteidigung oder bei der Jagd auf Terroristen oder Angriffe anderer Staaten.
Andreessen zieht daraus eine Schlussfolgerung:
Es sollte erlaubt sein, KI so schnell und umfassend wie möglich zu entwickeln. Die Entwicklungen kleiner Start-ups sollten mit denen großer Unternehmen konkurrieren können, ohne staatliche Restriktionen und ohne regulatorische Hindernisse für Open Source. Um das Risiko zu minimieren, dass schlechte Menschen mithilfe von KI schlechte Dinge tun, sollten Regierungen sich mit potenziellen Risiken befassen und KI auch einsetzen, um allgemeine Probleme wie Unterernährung, Krankheiten und die Klimakrise anzugehen. Und die Zusammenarbeit mit dem Privatsektor und der Wissenschaft fördern, um Missbrauch und die Dominanz von KI durch andere (möglicherweise nicht wohlwollende) Staaten zu verhindern.