Sehr geehrte Damen und Herren, liebe AI‑Experten aus der DACH‑Region,
vielen Dank, dass Sie mir die Gelegenheit geben, heute in diesem Online‑Meeting zu sprechen. Mein Name ist Karl‑Friedrich Fischbach, und ich freue mich, mit Ihnen über die Evolution der Künstlichen Intelligenz seit den 1970er Jahren zu reflektieren.
Als Neurobiologe, der sich früh mit der Kybernetik auseinandergesetzt hat, habe ich 1979 eine Vorlesung gehalten, die unter dem Titel „Künstliche Intelligenz: Metamorphose des Maschinenbildes“ bekannt wurde. Sie erschien 1981 in gekürzter Form in der Zeitschrift Umschau.
Ich habe den vollständigen Text des historischen Artikels kürzlich auf meiner Website seniorentreff.ai veröffentlicht, ergänzt um ein Vorwort, das die Brücke zur Gegenwart schlägt. Die Links finden Sie in der Beschreibung dieses Meetings oder direkt über die Startseite auf seniorentreff.ai über den Link im Fuß „Zurück in die Zukunft“.
Mein Fazit gleich vorab
Die Metamorphose des Maschinenbildes hat dramatische Züge angenommen! Wir schaffen etwas, das größer werden kann als wir selbst. Darum gilt: Wir müssen versuchen, die Richtung mitzubestimmen.
Ich möchte meine Gedanken von 1979 in den Kontext der heutigen rasanten Entwicklungen der KI stellen. Ich war damals überzeugt – und bin es heute noch –, dass Intelligenz primär eine Frage der Informationsverarbeitung ist, nicht des zugrunde liegenden Substrats. Diese kybernetische Perspektive, inspiriert von Pionieren wie Norbert Wiener und Alan Turing, sieht den Menschen wie die Maschine als Systeme, die durch Feedback‑Schleifen, Lernen und Anpassung funktionieren.
Von 1979 bis heute – Kontinuitäten und Brüche
Ich fühle mich in dieser Hinsicht heute eng verbunden mit Geoffrey Hinton, der ebenfalls aus der Neurobiologie kommt und als „Godfather of Deep Learning“ gilt. Hinton hat, inspiriert vom Gehirn, früh erkannt, dass neuronale Netze Maschinen ermöglichen, Muster zu lernen und zu generalisieren – ein Gedanke, den meine Vorlesung von 1979 vorweggenommen hat. Lassen Sie uns gemeinsam zurückblicken, die Gegenwart analysieren und in die Zukunft schauen.
In den späten 1970er Jahren waren Computer meist noch sehr große, teure Maschinen, die hauptsächlich in Universitäten und Firmen standen. Die KI‑Forschung steckte in den Kinderschuhen – der erste KI‑Winter lag hinter uns, und neuer Optimismus keimte auf.
In meiner Vorlesung stellte ich die Frage: „Können Maschinen denken?“ Ich griff dabei auf Alan Turings berühmten Test zurück. Turing schlug ein Imitationsspiel vor, bei dem eine Maschine durch schriftliche Kommunikation einen Menschen imitieren muss, um als intelligent zu gelten. Er wollte emotionale Barrieren umgehen und den Fokus auf das Verhalten legen: Wenn die Maschine sich wie ein denkendes Wesen verhält, warum sollten wir ihr dann Intelligenz absprechen?
Ein frühes Beispiel maschinellen Lernens
Um das zu illustrieren, griff ich ein Beispiel auf: das Damespielprogramm von Arthur L. Samuel aus den 1950er Jahren. Samuel, ein Pionier bei IBM, entwickelte ein Programm, das nicht nur Dame spielte, sondern lernte. Es schaute Züge voraus, bewertete Stellungen mit einem Polynom – basierend auf Faktoren wie Steinverhältnis, Zentrumskontrolle und Beweglichkeit – und nutzte die Minimax‑Methode, um den besten Zug zu wählen. Wichtig war: Es lernte auf zwei Ebenen – durch „Auswendiglernen“ bewerteter Stellungen und durch „verallgemeinerndes Lernen“, bei dem es die Koeffizienten seines Bewertungspolynoms anpasste.
Das Ergebnis? Das Programm besiegte seinen Schöpfer und sogar einen Meisterspieler, der Jahre lang ungeschlagen war. Dieses Beispiel diente mir, um Intelligenz zu definieren: die Fähigkeit, vorauszuschauen, zu bewerten, zu entscheiden und aus Konsequenzen zu lernen. Maschinen konnten das bereits damals – und zwar ohne neuronale Netze, nur mit regelbasierten Algorithmen.
Vorurteile – damals wie heute
Ich besprach auch gängige Vorurteile, die bereits damals die Akzeptanz behinderten und – wie heute – den Blick auf die Zukunft vernebeln:
- „Computer sind nur zählende Idioten.“ Falsch: Ihre Logikgatter ermöglichen komplexe Systeme, ähnlich wie Neuronen im Gehirn.
- „Computer können nicht lernen.“ Samuels Programm widerlegte das.
- „Computer sind nicht kreativ.“ Kreativität ist oft Neukombination von Gelerntem – etwas, das Maschinen simulieren können.
- „Computer können nicht klüger werden als ihre Programmierer.“ Lernende Systeme sammeln Erfahrung und übertreffen Individuen.
- „Computer haben keine Gefühle.“ Basierend auf Turings Test geht es um Verhalten; und wenn Gefühle Informationsverarbeitung sind, ist Silizium nicht ausgeschlossen.
Von der Kybernetik zum Deep Learning
Meine kybernetische Sicht war entscheidend: Es kommt auf die Struktur der Informationsverarbeitung an, nicht auf das Substrat. Das Gehirn ist ein Netzwerk von Neuronen, das Signale verarbeitet; das macht auch ein Computerchip. Hinton entwickelte später den Backpropagation‑Algorithmus, der es Netzen erlaubt, aus Fehlern zu lernen – ein Meilenstein, der den Grundstein für Deep Learning legte.
Nach den KI‑Wintern folgte der Durchbruch in den 2010er Jahren: GPUs, Big Data und neue Architekturen führten zu einem Quantensprung. 2012 gewann AlexNet den ImageNet‑Wettbewerb, 2016 besiegte AlphaGo den Go‑Weltmeister Lee Sedol – mit Reinforcement Learning und neuronalen Netzen.
2025: Allgegenwärtige KI – Chancen und Risiken
Heute generieren große Sprachmodelle Text, Code und Bilder; Transformer und Aufmerksamkeitsmechanismen beherrschen die Bühne. Gleichzeitig warnte Hinton 2023 vor Risiken: KI könnte intelligenter werden als wir; das Alignment‑Problem ist akut. Seine neurobiologischen Wurzeln verstärken die Einsicht, dass „digitale Intelligenz“ die biologische übertreffen könnte, weil sie skalierbar ist.
Vorurteile wie „KI ist nicht kreativ“ sind durch generative Modelle widerlegt. Die Automatisierung der Kopfarbeit, die ich 1979 warnend ansprach, ist heute Realität. Journalisten, Programmierer, Künstler – viele Berufsprofile verändern sich. Dazu kommt die Manipulationsgefahr durch täuschend echte Fakes.
Gleichzeitig hilft KI in der Medizin, bei Klimamodellen und in der Neurobiologie. Systeme analysieren neuronale Daten teils besser als Menschen.
Gesellschaftliche Konsequenzen
In den 1970er Jahren automatisierten wir Handarbeit; heute automatisieren wir Kopfarbeit. Fabriken sind menschenleer, Büros werden es. Arbeitslosigkeit und Sinnverlust drohen trotz Debatten über das bedingungslose Grundeinkommen. Und Verantwortung verdampft – wie Joseph Weizenbaum warnte: Wer trägt Schuld bei Fehlentscheidungen einer KI? Programmierer? Hersteller? Die KI selbst?
Die kybernetische Perspektive legt nahe: Wenn das Substrat egal ist, kann Silizium‑Intelligenz die biologische überholen. Das muss nicht zur aktiven Ausrottung führen, könnte aber zu unserer Marginalisierung führen – wir Menschen als „Ameisen der Zukunft“.
Wir müssen die Richtung mitbestimmen
Wir brauchen ethische Frameworks und klare Regeln. KI ist kein Naturgesetz, das über uns hereinbricht; sie ist aber mehr als ein bloßes Werkzeug. Gerade deshalb müssen wir als Gesellschaft die Spielregeln festlegen. Wenn wir es nicht tun, tun es andere – oft rein nach kommerziellen oder staatlich‑egoistischen Interessen.
Konkret ausgemalt bedeutet das:
- Statt passiv abzuwarten: Aktiv definieren, welche KI‑Anwendungen wir wollen und welche nicht. Wenn KI in Bewerbungen, Kreditvergabe oder Justiz eingesetzt wird, dann nur unter strengen Auflagen.
- Werte verankern: KI‑Systeme müssen demokratische und ethische Werte widerspiegeln: Fairness, Nicht‑Diskriminierung, Transparenz, Privatsphäre. Keine Blackboxes mit eingebauten Vorurteilen.
Der EU AI Act – ein risikobasierter Rahmen
- Inakzeptables Risiko (verboten): Manipulative Systeme oder „Social Scoring“.
- Hohes Risiko (streng reguliert): KI in kritischen Bereichen wie Medizintechnik, Personalwesen, Justiz oder Infrastruktur.
- Begrenztes Risiko (Transparenzpflicht): Chatbots und Deepfakes – Nutzer müssen informiert werden.
- Minimales Risiko: Die große Mehrheit der Anwendungen wie Spamfilter oder KI in Spielen.
Schluss
Die Metamorphose des Maschinenbildes ist in vollem Gange. Von Samuels Dame zu AlphaGo, von Vorurteilen zu realen Herausforderungen – die KI‑Evolution zeigt: Intelligenz ist substratunabhängig. Hinton's Weg von der Neurobiologie zur KI mahnt uns: Wir schaffen etwas Größeres als uns.
Lassen Sie uns diskutieren, wie wir es lenken können.
Vielen Dank für Ihre Aufmerksamkeit. Ich freue mich auf Fragen.