Springe direkt zu Inhalt

Wie intelligent kann KI eigentlich sein?

Die „Neurobiologie der Künstlichen Intelligenz“ war im Januar Thema der Dahlemer Wissenschaftsgespräche

19.02.2025

Präparat eines Gehirns und Nervensystems eines Menschen.

Präparat eines Gehirns und Nervensystems eines Menschen.
Bildquelle: Perot-Museum Dallas

Vor zwölf Jahren kam es bei der Erforschung und Entwicklung von Künstlicher Intelligenz (KI) in der Informatik zu einem Quantensprung – ein artifizielles neuronales Netzwerk, kurz KNN, gewann zum ersten Mal den internationalen „ImageNet“-Wettbewerb zur intelligenten Bilderkennung. „Damals haben Neurobiologen sich gefragt: Moment mal! Wir arbeiten seit 150 Jahren an neuronalen Netzwerken und versuchen zu verstehen, wie die Informationen dort hineinkommen. Können unsere Disziplinen vielleicht voneinander lernen?“, erzählt Robin Hiesinger.         

An Fruchtfliegen erforscht Robin Hiesinger, Professor für Neurobiologie an der Freien Universität Berlin, wie Informationen in neuronalen Netzwerken kodiert werden. Bei Lebewesen sei das ein zweistufiger Prozess: Eine durch das Genom vorgegebene Entwicklung führt zuerst zu einem Neuronen-Netzwerk, das bereits vieles kann. „Babys werden also nicht mit einem zufällig verdrahteten Gehirn geboren.“

Der zweite Schritt sei dann das Lernen. Während bei künstlicher Intelligenz dieser erste Schritt bislang komplett weggelassen wird, gäbe es bei der biologischen Intelligenz ohne das Genom gar kein Netzwerk, das lernfähig wäre. „Obwohl sie kein Genom und keinen Entwicklungsprozess hat, wissen wir nun, dass ein KNN durch Training wahnsinnig viel lernen und dann intelligente Dinge tun kann“, sagt Robin Hiesinger.

Aber wie weit kann diese künstliche Intelligenz gehen? Und wie ähnlich kann sie einer biologischen Intelligenz eigentlich werden?“ Über Fragen wie diese diskutierte der Wissenschaftler im Januar im Rahmen der Dahlemer Wissenschaftsgespräche mit dem Publikum im Forschungsneubau SupraFAB.

Intelligenz hat viele Formen

Doch zuallererst: KI wird gerne definiert als die Fähigkeit einer Maschine, etwas zu tun, das Intelligenz beim Menschen bräuchte. Damit stellt sich natürlich die Frage: Was bitte ist Intelligenz eigentlich? Selbst über biologische Intelligenz gibt es in der Wissenschaft keinen Konsens, denn – auch wenn IQ-Tests das suggerieren – sie lässt sich nicht einfach auf einer Skala definieren.

Ist ein Schachspieler intelligenter als andere Menschen? „Nein, er verfügt über Schachintelligenz und kann auf dieser speziellen Skala besser oder schlechter sein als andere. Ein Schimpanse hat null Schachintelligenz – aber als Biologen würden wir niemals sagen, er sei nicht intelligent. Er hat eine eigene Form von Intelligenz, die in vielen Aspekten weniger erscheint, in anderen aber auch mehr.“

Nach Robin Hiesingers Ansicht hat die Evolution Formen von Intelligenz selektiert, die ganz spezifisch für einzelne Lebensformen sind. Auch eine Fruchtfliege ist ja nicht blöd, sondern verfügt über Fähigkeiten, die es ihr erlauben, mit Artgenossen zu kommunizieren und Gefahren auszuweichen. Eine Skala, auf der die Fruchtfliege unten, ganz oben der Mensch und irgendwo dazwischen Hund, Katze und Maus liegen, ergibt also keinen Sinn. „Wenn Intelligenz demnach ganz unterschiedliche Formen hat, können wir auch nicht erwarten, dass KI auf einer alles umfassenden Skala menschliche Intelligenz erreicht.“ Moralische und emotionale Aspekte betrachten wir als Teil menschlicher Intelligenz. Ob KI Emotion oder Moral „kann“ oder wann das so sein wird, ist weiterhin unklar.

Wert der Verbindungen

Ein biologisches neuronales Netzwerk besteht aus Nervenzellen (Neuronen), die „Kabel“ (Axone) für Input und Output haben und über die Schaltstellen (Synapsen) miteinander verbunden sind. Ein künstliches neuronales Netzwerk ist zwar der Grundidee eines solchen Nervensystems nachempfunden, aber eine massive Reduktion dessen. Künstliche Neuronen, wie sie für maschinelles Lernen eingesetzt werden, sind nur eine Simulation vernetzter Knotenpunkte, die mit vielen anderen Knotenpunkten in Schichten organisiert sind: Die Daten laufen von einer Eingabeschicht über verborgene Ebenen zu einer Ausgabeschicht.

Die Knotenpunkte „lernen“, nach einer einfachen, algorithmischen Lernregel einzelne Verbindungen zu stärken oder zu schwächen. Das KNN als Gesamteinheit lernt dadurch, zum Beispiel Bilder oder Sprache sehr erfolgreich zu erkennen. Je mehr Trainingsdaten eingegeben werden, desto korrekter sind die Aussagen und Entscheidungen, die die KI am Ende trifft.

Eine KI für autonomes Fahren wird unter anderem mit Bildern von Hunden, Autos, Fußgängern und verschiedensten Hindernissen trainiert. „Aber wie die Information eigentlich im KNN repräsentiert ist, wissen wir nicht.“ Denn im Gegensatz zu einem klassischen Computer werden hier die Bilder nicht einfach gespeichert. „Das ist übrigens eine interessante Analogie zu unserem Gehirn, denn wie dort beispielsweise die Geheimzahl für eine Kreditkarte genau repräsentiert ist, wissen wir auch noch nicht.“

Je intensiver man etwas lernt, desto stärker werden die synaptischen Verbindungen zwischen den Neuronen. Durch Wiederholungen steigt der Wert der Verbindungen, in etwa wie bei den Knotenpunkten im KNN. Werden sie abgeschwächt, fällt er – und geht er auf Null, ist die Verbindung ganz weg.

Wie sicher, wie vertrauenswürdig ist eine Entscheidung, die von einer KI getroffen wird? Bei einem früheren Gespräch antwortete Robin Hiesinger auf die Frage, ob er sich in ein autonomes Auto setzen würde: Warum nicht? In ein Taxi steigen Sie ja auch – ohne zu wissen, wie viele Stunden der Fahrer bereits unterwegs ist und ob er gerade von privaten Dingen abgelenkt ist. Drei Jahre später ist er etwas vorsichtiger geworden. „Ich halte es immer noch für wahrscheinlich, dass im Durchschnitt KI-gesteuerte Autos sicherer sein können als menschlich gesteuerte. Da wir aber noch nicht verstehen, wie die Informationen im Netzwerk repräsentiert sind, können wir im Einzelfall nicht mit Sicherheit vorhersagen, wie eine KI sich verhalten wird oder warum etwas schiefgelaufen ist.“

Tatsächlich gebe es in Europa und den USA Gesetze, Passagierflugzeuge nur von Computersystemen steuern zu lassen, die vollständig nachvollziehbar sind, betont der Forscher. Auch die NASA setze bei ihren Space-Missionen lieber veraltete Computertechnologien ein. „Nicht, weil künstliche neuronale Netzwerke nicht gut wären! Sondern, weil man, wenn etwas schiefgelaufen ist, wissen möchte, woran es lag.“

„Wenn Intelligenz ganz unterschiedliche Formen hat, können wir auch nicht erwarten, dass KI auf einer alles umfassenden Skala menschliche Intelligenz erreicht“, sagt Robin Hiesinger, Professor für Neurobiologie an der Freien Universität.

„Wenn Intelligenz ganz unterschiedliche Formen hat, können wir auch nicht erwarten, dass KI auf einer alles umfassenden Skala menschliche Intelligenz erreicht“, sagt Robin Hiesinger, Professor für Neurobiologie an der Freien Universität.
Bildquelle: Bernd Wannenmacher

Autonomes Fahren und Moral

Die „Intelligenz“ eines autonomen Fahrzeuges kommt schnell an ihre Grenzen, weil sie nur das kann, worauf sie trainiert wurde. Unvorhergesehene Ereignisse, für die sie keine Daten hat, können zum Problem werden. Wer möchte in einem Auto sitzen, das in Sekundenbruchteilen entscheiden muss, ob es ein auf die Straße laufendes Kind überfährt, um den Fahrgast zu retten oder das „Risiko“ eingeht, ihm auszuweichen und gegen einen Baum oder in eine Mauer zu rasen? Was würden wir tun, wenn es als teures „Extra“ eine Software gäbe, die unter allen Umständen dem Leben der Insassen Priorität gibt? Sie kaufen? Spätestens hier kommt die Moral ins Spiel.

Was den Einsatz von künstlichen neuronalen Netzwerken angeht, hat Hiesinger eine klare Haltung: Als Werkzeug seien sie da wünschenswert, wo es Probleme zu lösen gibt. So gelingt beispielsweise der Software AlphaFold heute etwas, woran die Biochemie bislang scheiterte, nämlich aus der Aminosäuresequenz die exakte 3D-Struktur eines komplexen Proteins vorherzusagen. Auch wenn das Programm über keinerlei chemisches und molekularbiologisches „Verständnis“ verfügt, weil es lediglich an Zigtausenden Proteinstrukturen trainiert wurde: Es wird die medizinische Forschung weit voranbringen.
   „Bei allem, was unsere Lebensentscheidungen oder unsere Lebensfähigkeit beeinflusst“, sagt Hiesinger, „müssen wir kritische, moralische Fragen stellen, deren Beantwortung wir weder Ingenieuren noch Konzernen überlassen dürfen.“