Wann werden uns die Maschinen ausrotten und wie viel Angst muss eine Oma auf dem Zebrastreifen wirklich vor einem KI-gesteuerten Lkw haben? Was sind Deepfakes und warum rufen führende Wissenschaftlicher dazu auf, die Entwicklungen in Sachen KI ruhen zu lassen: Künstliche Intelligenz zwischen Marktwirtschaft und Maschinenherrschaft. Jetzt online.
Sie waren nie weg. Die Diskussionen um den Einsatz Künstlicher Intelligenz und ihren Einzug in unseren Alltag. Nachdem wir im ersten Teil unserer Reportage mithilfe zweier Experten des Regensburg Center for Artificial Intelligence die Auswirkungen von Chatbots und KI-gestützten Bildprogrammen auf Schulen, Jobs, Kunst und Kultur beleuchtet haben, beantworten uns die beiden Professoren Karsten Weber und Wolfgang Mauerer die wirklich wichtigen Fragen: Wann werden uns die Maschinen ausrotten und wie viel Angst muss eine Oma auf dem Zebrastreifen wirklich vor einem KI-gesteuerten Lkw haben?
Wir empfehlen, den ersten Teil der Reportage auf regensburger-nachrichten.de nachzulesen, denn hier haben wir unsere Experten bereits besser kennengelernt und geklärt, was Künstliche Intelligenz ist und warum maschinelles Lernen beziehungsweise Deep Learning passendere Ausdrücke sein können.
KI schafft eine schöne neue Welt
Künstliche Intelligenz wird unsere Gesellschaft, unsere Arbeit und unseren Alltag grundlegend verändern. An diese Gedanken haben sich viele in kürzester Zeit gewöhnt. Aber wann kommt das, vor dem wir uns dank James Cameron und der Matrix-Trilogie alle wirklich fürchten: Der Aufstand der Maschinen. Wann werden selbstfahrende Autos gezielt Schulkinder ins Visier nehmen, Rasenmäher-Roboter Katzen jagen und Militärdrohnen selbstständig unser Stromnetz bombardieren: Bevor oder nachdem wir uns wegen auf KI-gestützten Programmen fußenden Fake-News gegenseitig abgestochen haben?
Bereits in Teil eins haben wir uns vorrangig mit KI-basierten Programmen beschäftigt: ChatGPT, Lensa, DeepL und so weiter. Sie alle nutzen Künstliche Intelligenz, um verschiedene Aufgaben zu erfüllen – egal, ob Text- oder Bilderstellung. Und wie sollte es anders sein: Kurz nachdem unser erster großer Artikel über neue KI-Anwendungen erschien, bekamen erste Nutzer Zugriff auf eine noch schnellere und noch bessere Version von ChatGPT. Diese kann zwar weiterhin kleine Partytricks, wie zum Beispiel Gedichte über Apfelkuchen schreiben, jedoch auch weitaus beeindruckendere Aufgaben übernehmen, wie im Alleingang ganze Websites programmieren. Doch selbst bei den harmloseren Applikationen ließ Kritik nicht lange auf sich warten: Kunstschaffende sahen sich als „Inspirationsquelle“ missbraucht. Die Selfies, die Freunde und Bekannte mithilfe der Apps verschönern ließen, borgten sich Zeichen-Stile von Künstlern, die oftmals gar nicht wussten, dass sie als Lerngrundlage für eine KI „engagiert“ worden waren. Neben den urheberrechtlichen Problemen machten sich jedoch auch bald Stimmen bemerkbar, die auf ein Problem hinwiesen, das „Gesichtsfilter“ in sozialen Medien schon seit ihrer Einführung vor Jahren begleitet: Wer auf Instagram und Co einen Filter verwendet, verändert sein eigenes Aussehen. Unser Gehirn kann damit nur bedingt gut umgehen. In aller Kürze: Gewöhnt man sich zu sehr an das „Spiegelbild“ aus der App, kann das zu schweren psychischen Problemen führen – gerade, wenn man damit wie aktuelle Generationen bereits sehr jung in Berührung kommt. Warum KI hier eine große Rolle spielt? Durch neue Technologien werden auch diese Programme immer stärker und zeigen immer realistischer anmutende Ergebnisse.
Kamerafilter ermöglichen bereits seit Jahren allerhand Veränderungen an seinem eigenen Aussehen vorzunehmen. (Bild: Andrey Popov)
Kalter Krieg 2.0
Natürlich öffnet die Anwendung von „Deep Learning“ nicht nur die Tür zu besser sitzenden virtuellen Hasenohren. Seit Längerem kursiert ein neues „Buzzword“ durch die Medienlandschaft: „Deepfakes“. Darunter versteht man KI-gestützte Programme, die in Bewegtbild täuschend echt reale Personen nachahmen. Genau wie bei harmloseren Anwendungen spielt auch hier die Größe der Datenbank eine Rolle. Je mehr Material man der KI zur Verfügung stellt, desto besser und originalgetreuer ist das Ergebnis: Das Programm erlernt spielend leicht Aussehen, Mimik und Stimmcharakteristiken. Ein berühmtes Beispiel aus dem letzten Jahr dürfte einigen noch bekannt sein: Ein russisches Komiker-Duo schaffte es angeblich in wenigen Tagen, verschiedenen europäischen Politikern ein Video-Gespräch mit Vitali Klitschko vorzugaukeln. Knapp ein Jahr später hört man vergleichsweise wenig von einer Technologie, die auf den ersten Blick die Macht hätte, ganze Staaten auszulöschen. Prof. Dr. Weber weiß, warum: „Wir befinden uns gerade am Beginn einer neuen geopolitischen Epoche – Kalter Krieg 2.0. Desinformation und Falschinformation waren schon im ersten Kalten Krieg wichtige Werkzeuge des Konflikts. In diesem Bereich lassen sich Staaten nur ungerne in die Karten schauen.“
Vertrauen schaffen, wo kein Vertrauen zu schaffen ist
Wie erklärt man einer Bevölkerung, die gerade erst mit Mühe und Not die Zerreißprobe „Corona-Pandemie“ überstanden hat, dass man eventuell in näherer Zukunft Video- oder Audioaufnahmen des deutschen Kanzlers nicht mehr trauen kann. Beziehungsweise sollte man überhaupt aufklären? „Schwierig ist Aufklärung auch dort, wo selbst sachliche Information zu Misstrauen und Panik führen können. KI zur Generierung von Deepfake-Bildern oder -Videos ist eine reale Gefahr, insofern ist Aufklärung durchaus angemessen“, sagt Prof. Weber. Auch Prof. Dr. Mauerer schätzt die Situation ähnlich ein. Genau wie man früheren technologischen Fortschritt durch Regelungen wie die Genfer Konvention in den Griff bekommen hätte, so müsse man auch hier mit dem technologischen Fortschritt mithalten. Neue Fragen erfordern neue Antworten: „Das setzt natürlich ein gewisses Grundverständnis in der Bevölkerung für die Thematik voraus. Sonst beantwortet irgendwann jemand anderes diese Fragen für uns“, mahnt Prof. Mauerer.
Der Begriff „Deepfake“ wird bereits seit 2017 genutzt. (Bild: ROD Photography)
„Wir haben in der Vergangenheit gelernt, zu hinterfragen, was wir auf Bildern oder in Videos sehen. Bild- und Videobearbeitung sind kein neues Phänomen. Große Teile der Bevölkerung haben gelernt, ein gesundes Misstrauen gegenüber Bildern und Videos aus dem Netz zu entwickeln“, beschwichtigt Prof. Weber. Personen jüngeren Alters sind vermutlich auf Plattformen wie TikTok und Instagram schon Videos von Usern begegnet, die sich mithilfe von Deepfakes als Prominente ausgeben. Auch KI-gestützte Stimmen-Generatoren werden immer besser. So kann man amtierende oder vergangene US-Präsidenten meist schon nach einer kurzen Suche im Internet durch „Text-to-Speech“-Programme die verrücktesten Dinge sagen lassen. Im Internet finden sich mehr und mehr Videos, in denen Biden, Obama, Trump und Co zusammen Videospiele spielen, über Musik diskutieren oder in gänzlich andere Rollen schlüpfen. Eine Technologie, die Ende des letzten Jahrhunderts noch Atomkriege ausgelöst hätte, wird heute genutzt, um US-Präsidenten in Gamer zu verwandeln.
Deepfake-Pornographie: Die dunkelsten Auswüchse der KI?
Trotzdem sind Deepfakes kein harmloser Spaß: „Da es vermutlich nur noch wenige Menschen gibt, von denen keine Bilder im Internet verfügbar sind, ist die Büchse der Pandora offen“, mahnt Prof. Weber. Auch im „privaten“ Rahmen lassen sich beunruhigende Trends beobachten: Mehr und mehr Personen werden Opfer von Deepfake-Pornographie. Bereits vor zwei Jahren machten erste Clips die Runde, in denen das Gesicht von Schauspielerinnen in Pornos eingefügt wurde. Das Dramatische: Durch den technologischen Fortschritt ist es heute nicht mehr nötig, eine umfassende Bild- und Videomaterialbasis zu haben. Auch Privatpersonen, die nicht in der Öffentlichkeit stehen, können zum Opfer einer solchen Montage werden – mit teils verheerenden Folgen. Während das Phänomen „Revenge Porn“, also Ex-Liebschaften, die im Nachgang explizites Bildmaterial einer anderen Person ohne Einwilligung veröffentlichen, schon seit Längerem existiert, eröffnen „Deepfakes“ hier fatale neue Türen. Prof. Weber, der sich in seiner Forschung verstärkt mit den ethischen Auswirkungen von KI beschäftigt, sieht unsere Gesellschaft jedoch nicht chancenlos: „Mit dem technischen Fortschritt von Bildern zu Filmen bis zu KI-generierten Inhalten geht auch immer ein Lernprozess einher. Dieser wird schmerzhaft und an einigen Stellen auch nicht vollständig sein, ich würde an dieser Stelle aber nicht gleich sagen, dass wir das gar nicht schaffen werden.“
Bis dahin ist jedoch noch ein weiter Weg. Deepfake-Videos verbreiten sich schneller, als sie als Falschinformation entlarvt werden können. Sie gehen durch WhatsApp- und Telegram-Gruppen, werden auf sozialen Medien wie Instagram oder Foren wie Reddit geteilt und dort noch zu oft für bare Münze genommen. „Die nähere Zukunft, […] wird der Zeitraum sein, in dem man mit diesen neuen Medien noch viel Schaden anrichten können wird“, warnt Prof. Weber. Gesunder Menschenverstand bleibt das Gebot der Stunde. Auch Prof. Mauerer gibt sich optimistisch: „Ich bin mir sicher, dass wir einen guten Weg finden werden, auch wenn es großer Anstrengung bedarf. Technischer Fortschritt betrifft auch andere Bereiche, außerhalb des zivilen Lebens, in denen wir es geschafft haben diesen einzubremsen.“
Quantensprung durch Künstliche Intelligenz?
Während schreibende und kreative Berufe von den Entwicklungen von KI zuletzt relativ kalt erwischt wurden, gibt es einen anderen Wirtschaftsbereich, dem schon seit Jahren ein Quantensprung durch Künstliche Intelligenz nachgesagt wird: Die Mobil- und Logistikindustrie. Schon sehr früh galten selbstfahrende Autos oder Lkws als Lösung so gut wie aller Probleme, die auf unseren Straßen zu finden sind. Bereits vor knapp 30 Jahren unternahmen Forscher erste Testfahrten mit autonomen Fahrzeugen. Heute scheinen wir einem selbstfahrenden Auto so nah wie nie zuvor, doch Prof. Weber schätzt die Situation nur milde optimistisch ein: „Ich hoffe sehr, dass autonomes sowie klimaneutrales Fahren noch in meiner Lebenszeit massenkompatibel wird.“ Konkreter also in den nächsten rund 30 Jahren. Bereits 2021 folgte der erste gesetzliche Rahmen für autonome Fahrzeuge in Deutschland, bis autonomes Fahren jedoch einen nennenswerten Anteil an Verkehrsteilnehmern darstellt, werden noch Jahre oder sogar Jahrzehnte vergehen. Katalysator oder Bremser werden auch hier wirtschaftliche Überlegungen sein: „Autonomes Fahren wird als Erstes möglicherweise nicht in Gestalt von Privat-Pkws auftauchen, sondern in gewerblichen und stärker strukturierten Bereichen wie dem öffentlichen Nahverkehr oder der Logistik zum Einsatz kommen“, weiß Prof. Weber. Denn hier könnten Investitionen in KI mittelfristig zu massiven Einsparungen führen: „Im ÖPNV und in der Logistik sind Fahrer nicht nur ein wichtiger Kostenfaktor, sondern auch rares Personal. Dementsprechend gibt es hier eine doppelte wirtschaftliche Motivation, Fahrzeuge autonom fahren zu lassen“, ergänzt der Experte. Erste Visionen des neuen ÖPNV wurden im Regensburger Gewerbepark bereits Realität: Der autonome Bus „Emilia“ dreht hier seine Runden.
Emils Cousine zieht auch heute noch interessierte Blicke auf sich. (Bild: Hanno Meier)
Weitere Vorteile liegen auf der Hand: Ein autonom betriebener ÖPNV macht diesen auch für einkommensschwächere Ortschaften oder Stadteile erschwinglich und lässt ältere oder ärmere Menschen wieder einfacher an der Gesellschaft teilhaben. Selbstfahrende Busse und Lkws sparen Personal und bewegen sich in einem Rahmen, der Autonomie einfacher und schneller implementierbar macht: „Lkws mit 80 km/h autonom über die Autobahn zu steuern ist leichter, als Pkws mit 50 km/h durch die Stadt zu lenken“, weiß Professor Weber. Tatsächlich dürfte einigen Menschen jedoch bei beiden Szenarien unwohl werden. Sucht man im Internet nach Videos selbstfahrender Autos, findet man Clips, in denen autonome Fahrzeuge Fußgänger-Attrappen überfahren oder Bremstests nicht bestehen. Damit werden Ängste befeuert, die ausgeräumt werden müssen.
In einigen Fällen wird hier das Gedankenexperiment „Trolley-Problem“ angeführt: Ein Mann muss die weitere Fahrt eines Zugs über die Weichensteuerung bestimmen: Auf der ersten Strecke liegen drei Menschen, auf der zweiten Strecke nur einer. Wen wird der Mann wählen? Im moralphilosophischen Gedankenexperiment spielen meist noch viele andere Faktoren eine Rolle, doch wie entscheidet ein autonomes Auto, dessen Sensoren ihm mitteilen, dass eine Oma wenige Meter vor ihm auf die Straße gestürzt ist, ein Ausweichmanöver aber gezwungenermaßen zu einer Kollision mit einem jungen Radfahrer führen würde? Um diese Frage zu beantworten, muss man das System „Autonomes Fahren“ in seiner Gesamtheit betrachten.
Die fünf Level autonomen Fahrens
Gemeinhin spricht man von fünf Leveln des autonomen Fahrens: Level 1 beginnt schon beim Brems- oder Spurhalteassistenten. Bei Level 3 und 4 nimmt der menschliche Fahrer bereits die Hände vom Lenkrad. Bei Level 5 jedoch wird erst gar kein Lenkrad mehr verbaut. Bis Stufe 3 oder 4 kann es noch reichen, die Künstliche Intelligenz des Fahrzeugs mit den Daten aus Hochleistungssensoren im Auto selbst und einigen Informationen aus dem Internet zu füttern. Autos, in deren Fahrverhalten ein Mensch wirklich gar nicht mehr eingreifen kann, brauchen jedoch dringend eine eigentlich gänzlich neue Infrastruktur. Professor Weber fasst die Grundlagen für uns zusammen: „Sind wir erstmal an dem Punkt des einhundertprozentigen autonomen Fahrens angekommen, wird es gefährdende Phänomene wie Geisterfahrer nicht mehr geben. Um das erreichen zu können, werden Autobahnen, Straßenzüge – also die gesamte Verkehrsinfrastruktur – mit Sensoren und technischen Möglichkeiten ausgestattet, um jegliche Gefahren zu minimieren. Autonome Fahrzeuge werden miteinander vernetzt sein und Gefahrenpotenziale auch untereinander austauschen.“ Dadurch wären moralische Dilemmata ausgeschlossen.
Wie nehmen autonome Fahrzeuge die Welt war? Bei Continental in Regensburg wird an neuronalen Netzen. (Bild: Continental AG)
Neben der drastischen Reduzierung der jährlichen Verkehrstoten durch menschliches Versagen, werden auch reibungsloserer Verkehrsfluss und eine deutlich gesunkene Umweltbelastung mit der Einführung der flächendeckenden Autonomie des Autos einhergehen. Jedoch stehen dieser Utopie einige Hürden im Weg: „Im Individualverkehr besitzt das Selbststeuern des Fahrzeugs dagegen eine andere Bedeutung. Hier wird auch viel mit der Freude am Fahren geworben. Hier sehe ich den Bedarf eher bei Pendlern, die im morgendlichen oder abendlichen Stau stecken“, weiß Prof. Weber. Gerade Deutschland, als Land der Autobahn und einer dauerpräsenten Autoindustrie, wirkt nicht gerade wie der beste Nährboden für autonomes Fahren.
„Tatsächlich ist die viel wichtigere Frage, ob wir eine solche Infrastruktur aufbauen wollen und können und damit gleichzeitig erheblich an Mitspracherecht in Sachen Verkehr aufzugeben bereit sind. Denn in der Welt des autonomen Fahrens ist aus Sicherheitsüberlegungen heraus wenig bis keinen Platz für menschliche Spaßentscheidungen. Heute können Sie Verkehrszeichen aus eigenem Willen heraus ignorieren und zum Beispiel schneller als 100 km/h auf der Bundesstraße fahren. Ein autonomes Fahrzeug wird das nicht können. Das wird unser Verständnis von Verkehr grundsätzlich verändern“, prognostiziert der Experte. Kurz gesagt: Ein Land, das nicht mal bereit ist, ein flächendeckendes Tempolimit einzuführen, wird sich nicht Lenkrad und Gaspedal nehmen lassen. Höchstens, wenn das zu erwerbende KI-gestützte Auto David Hasselhoffs Bolide K.I.T.T. aus der Serie „Knight Rider“ wäre.
Autonomes Fahren: Level 5 in 2025 zu ambitioniert
Früher warfen Forscher sehr ambitionierte Zahlen in den Raum und gingen davon aus, dass bereits 2025 Level-5-Fahrzeuge im freien Verkauf gehen würden. Heute muss man diese Prognose nach hinten datieren – bis die Technologie für alle erschwinglich wird, dauert es vermutlich sogar länger, erklärt Prof. Weber: „Autonomes Fahren wird zunächst im hochpreisigen Segment angesiedelt sein; mit den vorher genannten Aspekten zusammen limitiert das das schnell zu erreichende Marktvolumen. Betrachte ich meine Lebenserwartung, gebe ich mir selbst noch circa 30 Jahre: Ich denke, dass, wenn ich kurz vor meinem Ableben stehe, circa 20-30 Prozent aller Fahrzeuge vollautonom fahren werden.“ Bis dahin gibt es jedoch noch einige Steine von der Straße zu räumen: „Das größte Problem wird das Nebeneinander von nicht, halb- und vollautonomen Fahrzeugen sein. Dieses Problem gilt es noch zu lösen, denn hierbei geht es um die Sicherheit aller Verkehrsteilnehmer.“
Um sicher autonom fahren zu können, muss sich der Verkehr der Zukunft vernetzen. (Bild: Gargantiopa)
„Singularität“: Wenn Toaster morden
Natürlich schwingt bei der Idee vom hundertprozentigen Autonomen Verkehr auch immer eine ganz andere Angst mit: Was, wenn mein Auto ein Bewusstsein entwickelt? Könnte es nicht passieren, dass ich eines Morgens in mein Level-5-KI-Auto einsteige, sage „Ich will zur Arbeit“, und mein Pkw weigert sich? Filmklassiker wie „Terminator“ und „2001: Odysee im Weltraum“ befeuerten bereits vor Jahrzehnten unsere Angst vor KI, Anfang der 2000er kamen dann Filme wie „I, Robot“ dazu und zuletzt griffen sogar Animationsstudios den Stoff auf und verpackten ihn in der Komödie „Die Mitchells gegen die Maschinen“. Tausende Bücher, Serien und Videospiele greifen das Thema der KI-Apokalypse auf. Den Zeitpunkt, an dem uns unsere Erfindungen als Herrscher der Erde ablösen, nennt man „Singularität“. Dieser ominöse Zeitpunkt beflügelt seit jeher die Fantasie, aber auch den Forschergeist Tausender. Eine autonome KI, die nicht mehr nur eine begrenzte Anzahl von Problemen bewältigen kann und nicht mehr auf menschliche Hilfe angewiesen ist, löst Ängste aus, denn sie wäre uns sehr ähnlich: „Was häufig als autonome KI bezeichnet wird, wird in der Fachsprache ‚AGI‘ genannt: Artificial General Intelligence. Damit werden KI-Systeme benannt, die nicht auf ein bestimmtes Problem spezialisiert sind, sondern für jedes gegebene Problem eine Lösung finden können. Lebewesen wie Menschen können so etwas recht gut“, erklärt Prof. Weber.
Von Spekulationen über eine möglicherweise nahende Singularität hält der Professor wenig: „Es wird zwar häufiger behauptet, dass dieser Entwicklungsschritt kurz bevorsteht; man kann mit Büchern über solche Zukunftsvisionen bekannt und auch wohlhabend werden.“ Denn die Faszination über Untergangsszenarien jedweder Art ist uns in die Wiege gelegt: Nicht umsonst ist Science-Fiction eines der beliebtesten Genres. Meist wird hier das Bild bedient, dass die Menschheit naiv ihren eigenen Untergang herbeiführt: Maschinen entwickeln sich unvorhersehbar weiter, werden zu „Lebewesen“. In manchen Werken entwickeln sie „menschliche“ Empfindungen – mit allen Vor- und Nachteilen – in anderen bleiben sie gefühlskalt und berechnend. Meist führen beide Szenarien zu unserem Untergang.
„Intelligenz ist mehr als die schnelle Verarbeitung von Daten.“
Um diesen abzuwenden erdachte der russische Scifi-Autor Isaac Asimov Roboter-Gesetze, die sicher stellen sollte, dass uns KI nicht früher oder später auslöscht. Diese sollten sicherstellen, dass KI Menschen weder wissentlich schaden, noch sich zukünftig gegen ihre Erbauer wenden könnte. Auf den ersten Blick klingen diese Regelungen vielversprechend. Spannung entstand in den Werken von Asimov und anderer Autoren vor allem, weil Maschinen anfingen, ein Bewusstsein zu entwickeln. Noch müssen wir Asimovs Gesetze nicht implementieren: „Betrachten wir Systeme, von denen heute schon behauptet wird, dass sie Züge einer AGI haben, wird schnell klar, dass ‚da niemand ist‘. Da ist keine Person oder gar so etwas wie eine Seele. Die Leistungen der Systeme sind beeindruckend, aber es sind technische Systeme. Wir sollten Technik nicht mystifizieren und ihr etwas zusprechen, von dem wir nicht einmal wissen, was es ist“, mahnt Prof. Weber. Wie genau wir von aktuellen KI-Modellen zu Maschinenherrschaft kommen, wird in der Fiktion meist geschickt ausgespart oder nur spärlich erklärt.
Professor Weber ordnet die Ansprüche, die man an eine AGI haben müsste ein: „Eine Küchenschabe kann in der Summe immer noch viel mehr als jedes KI-System, das wir derzeit bauen können. Das Tier kann in einer feindlichen Umwelt überleben und hat Fähigkeiten, deren technische Realisierung noch weit entfernt ist. Das liegt unter anderem daran, dass solche Fähigkeiten bei Lebewesen durch die Kombination eines leistungsfähigen neuronalen Netzes, ebenso leistungsfähiger Sensoren, angepasster Motorik, effizienter Energieversorgung und Millionen Jahre Evolution zustandekommen. Intelligenz ist mehr als die schnelle Verarbeitung von Daten.“
Wird der Terminator für immer Fiktion bleiben? (Bild: Omozo)
Allen technischen Limitierungen zum Trotz müssen sich Wissenschaftler an Definitionen halten – auch wenn sich diese ändern können: „Man könnte schon argumentieren, dass es gerade schon Systeme gibt, die sich durch verstärkendes Lernen stetig im Betrieb verbessern“, erklärt Prof. Mauerer und fügt an: „Die Frage nach der ‚echten‘, der starken KI beantworte ich als Physiker eher mit der Gegenfrage ‚Was ist Bewusstsein?‘. Ab wann ist ein System ‚bewusst‘? Unterscheiden wir uns von Maschinen? Für mich sind diese Fragen offen.“
Was der Spekulation über „echte“ KI einen Riegel vorschiebt, ist so alltäglich und schnöde, dass man es kaum glauben mag: Die Marktwirtschaft. Prof. Weber weiß, wieso Softwarefirmen nicht mit Hochdruck an starker KI forschen: „Heutige KI-Systeme sind inselbegabt; das heißt, dass sie eine Aufgabe sehr gut lösen können, alle anderen aber überhaupt nicht. Das liegt vermutlich auch daran, dass es für die Entwicklung eine AGI einfach keinen ökonomischen Treiber gibt: Warum ein teures Schweizer Taschenmesser erfinden, wenn es ein einfacher Schraubendreher auch tut.“ Doch ein Hoffnungsschimmer bleibt: „Ob wir über AGI stolpern könnten? Ich halte das nicht für unmöglich, aber für sehr unwahrscheinlich“, gesteht Prof. Weber. Auch Prof. Mauerer lässt die Tür zu AGIs einen Spalt offen: „Dass wir Systeme entwickeln, die wir selber nicht mehr im Griff haben, ist nichts, mit dem wir noch nicht konfrontiert worden wären. Denken wir nur an Nuklear-Waffen und den Kalten Krieg.“
Die Vermenschlichung der Maschine
Die Auswirkungen von Filmen und Fiktion bekommen die beiden Professoren in ihrer alltäglichen Arbeit zu spüren: Prof. Weber muss schmunzeln: „Bilder aus den Medien über Roboter und KI haben Wirkung. So stellen uns Personen, die an unseren Feldstudien Interesse haben, die Frage, ob unsere KI-Systeme aussehen wie zum Beispiel ein Terminator. Viele sind regelrecht enttäuscht, wenn sie sehen, dass der Roboter nur eine unspektakuläre Blechbüchse ist. Was im ersten Moment witzig klingt, hat einen ernsten Hintergrund: „Die Bilder aus den Medien stecken in den Köpfen und erzeugen da eventuell auch Ängste. Wir kämpfen in der Diskussion um KI und Roboter – die oft fälschlicherweise in einen Topf geworfen werden – sehr mit den popkulturellen Bildern.“ Der Experte nennt ein weiteres Beispiel: „Tatsächlich haben wir schon des Öfteren darüber nachgedacht, unseren Robotern für öffentliche Veranstaltungen ein Gesicht zu geben oder ein T-Shirt anzuziehen. Damit würden wir aber vorantreiben, was wir eigentlich dringend vermeiden wollen: Eine Vermenschlichung der Maschine.“ Diese Humanisierung könne in Bereichen wie der Pflege durchaus Vorteile mit sich bringen, in vielen anderen Anwendungsfeldern sieht der Professor sie jedoch als moralisch fragwürdig an: „Es ist und bleibt eine Gratwanderung. Denn mit der Vermenschlichung knüpft man an Bilder an, die man eigentlich vermeiden will, wie eben dem Terminator oder auch Disneys Wall-E.“ Aber auch der Pflegenotstand, dessen Lösung ebenfalls seit bereits mehreren Jahren in der KI-Forschung gesucht wird, bringt seine Tücken mit sich. Professor Weber führt ein Beispiel an, dass vielen Bürgern nicht bewusst sein dürfte: „Ein interessantes Beispiel ist der Umgang von Menschen mit Demenzerkrankungen. Hier sehen Forscher einerseits den Vorteil, durch vermenschlichte Maschinen an vorhandene Erfahrungen des Patienten anzuknüpfen, andererseits könnte man das Vorgaukeln einer anderen Person auch als negativen Aspekt und moralisch fragwürdig auslegen.“
Die neue Spitze der Nahrungskette?
Wer ein vollständiges Bild von Künstlicher Intelligenz im Jahr 2023 zeichnen will, würde damit ganze Enzyklopädien füllen – wer seine Thematik dann noch gegenüber Spekulationen über die Zukunft öffnet, liegt schnell beim Umfang ganzer Bibliotheken. Selbst Experten haben nicht die Antworten auf alle Fragen. Künstliche Intelligenz kann und wird uns helfen, Ergebnisse zu liefern, wo vorher Fragezeichen standen und Lösungen für Probleme zu finden, die heute noch als undenkbar gelten. Andererseits wird KI auch neue Fragen stellen und Antworten einfordern, die wir nur schwer geben können werden. Auf absehbare Zeit wird unsere Gesellschaft genug damit zu tun haben, aktuelle Entwicklungen in Sachen Künstlicher Intelligenz „unter Kontrolle“ zu bringen: Texterstellung, Urheberrecht, Deepfakes, selbstfahrende Autos und so weiter. Wer gerade am Leben ist, hat das Glück – oder das Pech – „echte“ Künstliche Intelligenz nicht mehr miterleben. Künftige Generationen ist ein Leben an der Spitze der Nahrungskette vielleicht nicht mehr vergönnt. Irgendwann wird sich die Menschheit unter Umständen selbst obsolet machen und selbst den Weg für unsere Nachfolger ebnen. Bis dahin vergehen unter Umständen noch Jahrtausende. Jahre, in denen wir uns von der KI noch lange witzige Gedichte über Apfelkuchen schreiben lassen können.
Lucas Treffer / RNRed