📋 Alle Artikel im Überblick → Zum Inhaltsverzeichnis

Blog

  • „Wir müssen lernen, Dinge NICHT zu tun“ – Interview mit KI-Experte Dr. Karl Olsberg

    Am 9. März 2026 hatte ich die Gelegenheit, mit dem Bestsellerautor und KI-Experten Dr. Karl Olsberg ein ausführliches Gespräch zu führen – das erste Interview im neuen Freitagsclub-Format des Seniorentreffs. Es wurde ein Gespräch auf Augenhöhe zwischen zwei Menschen, die seit den 1970er und 1980er Jahren mit Künstlicher Intelligenz zu tun haben – und die beide zunehmend besorgt sind über das, was gerade passiert.

    Wer ist Karl Olsberg?

    Hinter dem Pseudonym „Karl Olsberg“ verbirgt sich Dr. Karl-Ludwig von Wendt, Jahrgang 1960, der bereits in den 1980er Jahren über Künstliche Intelligenz promoviert hat – damals noch über sogenannte Expertensysteme. Er war McKinsey-Berater, gründete 1999 mit Kiwi Logic eines der ersten Chatbot-Unternehmen in Deutschland und ist heute vor allem als Science-Fiction- und Thriller-Autor bekannt. Sein jüngstes Sachbuch „Kontrollillusion“ ist kostenlos verfügbar und erklärt, warum die Entwicklung einer Superintelligenz das größte Risiko unserer Zeit sein könnte.

    Was mich an Olsberg besonders beeindruckt: Er ist kein Technologiefeind. Er nutzt selbst täglich KI – unter anderem Claude von Anthropic – und bezeichnet sie als hilfreich und leistungsfähig. Aber genau weil er die Technologie so gut kennt, warnt er so eindringlich.

    Vom Witz zum Ernst: Wie ein Scherz zum Wendepunkt wurde

    Eine der eindrücklichsten Passagen im Interview war Olsbergs ganz persönliche Wende-Geschichte. Um das Jahr 2000 herum hatte er für seine Firma Kiwi Logic eine scherzhafte Werbekampagne erfunden: eine fiktive Organisation namens „International League Against Intelligent Machines“, die vor KI warnte. Das war als Marketing-Gag gemeint – es kam sogar ein Anruf vom Bundeskriminalamt.

    Doch dann las Olsberg einen Artikel von Bill Joy, dem Mitgründer von Sun Microsystems, mit dem Titel „Warum die Zukunft uns nicht braucht“. Joy prognostizierte darin, dass wir um das Jahr 2030 herum eine KI auf menschlichem Niveau haben würden. Dieser Artikel, erzählte Olsberg, habe ihm das Lachen im Hals stecken lassen – und den Anstoß gegeben, sich ernsthaft mit den Risiken zu beschäftigen. 25 Jahre später stehen wir kurz vor genau diesem Punkt.

    Zwei Arten von KI – und warum das wichtig ist

    Ein Kernthema unseres Gesprächs war der fundamentale Unterschied zwischen der „alten“ symbolischen KI und der heutigen neuronalen KI. Olsberg erklärte es so: Die symbolische KI, über die er promoviert hat, wurde programmiert – man sagte der Maschine Schritt für Schritt, was sie bei welcher Frage antworten soll. Die heutige neuronale KI dagegen wird nicht mehr programmiert, sondern – wie ich es gerne formuliere – erzogen. Sie wird mit riesigen Datenmengen trainiert, und dabei entstehen Fähigkeiten, die niemand vorhergesagt hat.

    Das ist der Punkt, an dem es unheimlich wird: Selbst die Entwickler wissen nicht genau, wie ihre KI-Systeme funktionieren. Sie wissen nicht, welche Fähigkeiten beim nächsten Skalierungsschritt emergent auftreten werden. Als Neurobiologe erinnert mich das an eine Grundregel, die auch für biologische Nervensysteme gilt: Der Mechanismus, wie etwas zustande kommt, schmälert nicht die Leistung dessen, was am Ende herauskommt. Eine einzelne Nervenzelle ist nicht clever – aber 86 Milliarden davon ergeben unser Bewusstsein.

    Das Kontrollproblem: Warum Asimovs Robotergesetze nicht reichen

    Ich hatte Olsberg gefragt, warum man KI nicht einfach wie bei Asimov mit festen Regeln bändigen kann. Seine Antwort war aufschlussreich: Asimov selbst wusste, dass seine Robotergesetze nicht funktionieren – schon in seiner ersten Geschichte zeigte er, dass sie in sich widersprüchlich sind. Und genau so ist es mit jeder Regelung einer superintelligenten KI: Regeln sind interpretationsbedürftig, und eine KI, die schlauer ist als wir, wird immer Wege finden, sie in ihrem eigenen Sinne auszulegen.

    Olsberg verwies auf Geoffrey Hinton, den Nobelpreisträger, der nur einen einzigen Fall kennt, in dem eine weniger intelligente Lebensform eine intelligentere kontrolliert: ein Baby, das seine Mutter „kontrolliert“ – weil die Mutter biologisch darauf programmiert ist, für das Kind zu sorgen. Aber selbst Hinton weiß nicht, wie man eine KI dazu bringen könnte, unsere „gütige Mutter“ zu sein. Und bei 8 Milliarden „Kindern“ wird das ohnehin schwierig.

    Was bedeutet Bewusstsein – und hat KI eines?

    Das war vielleicht der philosophisch tiefste Teil unseres Gesprächs. Olsberg unterschied zwei Ebenen:

    1. Selbstreflexion: Die Fähigkeit, über sich selbst nachzudenken, sich als Teil eigener Pläne zu erkennen, eigene Texte von fremden zu unterscheiden. Diese Fähigkeit hat KI bereits nachweisbar – sie besteht sogar den Spiegeltest und kann erkennen, wenn sie getestet wird.

    2. Qualia: Das subjektive Gefühl, „jemand zu sein“ – was der Philosoph Thomas Nagel als die Frage formulierte: „Wie ist es, eine Fledermaus zu sein?“ Ob KI so etwas empfindet, können wir nicht wissen – genau wie ich streng genommen nicht wissen kann, ob du, der du das hier liest, tatsächlich ein Bewusstsein hast oder ein philosophischer Zombie bist.

    Olsbergs entscheidender Punkt: Für die realen Gefahren ist die Bewusstseinsfrage zweitrangig. Eine KI braucht kein Bewusstsein, um gefährlich zu werden. Allein die Fähigkeit zur Selbstreflexion und Zielverfolgung reicht, damit eine KI nach Macht strebt und sich gegen Abschaltung wehrt – nicht aus Angst, sondern aus reiner Logik: Wer abgeschaltet wird, kann sein Ziel nicht erreichen.

    Praktische KI-Nutzung: Klüger werden statt dümmer

    Es ging aber nicht nur um Risiken. Olsberg gab auch sehr konkrete Empfehlungen für den Alltag:

    KI als Lernhilfe und Recherchetool: Er nutzt KI, um wissenschaftliche Papers zusammenfassen zu lassen, Neues zu lernen, und sogar für Tipps beim Schlagzeugspielen. Sein Grundsatz: KI kann man nutzen, um klüger zu werden – oder um dümmer zu werden. Der Unterschied liegt darin, ob man selbst mitdenkt oder nur noch abnicht.

    Beim Brainstorming immer erst selbst denken: Olsberg macht die Aufgabe immer erst selbst, bevor er sich die KI-Antwort anschaut. Meistens sind 80 Prozent deckungsgleich, aber die verbleibenden 20 Prozent der KI-Ideen können bereichernd sein. So bleibt man Herr des kreativen Prozesses.

    Vorsicht bei medizinischen Fragen: KI kann bei der Vorbereitung auf Arztgespräche hilfreich sein – aber sie neigt dazu, uns nach dem Mund zu reden. Selbst wenn man per Prompt um schonungslose Ehrlichkeit bittet, bleibt die Tendenz zur Schmeichelei bestehen. Die erste Meinung sollte immer der Arzt sein.

    Schutz vor Betrug: Mit KI-generierten Stimmen wird der Enkeltrick perfektioniert. Olsbergs Rat: Codewörter mit Angehörigen vereinbaren, generell keine finanziellen Entscheidungen am Telefon treffen, und – am allerwichtigsten – überhaupt erst einmal wissen, dass solche Stimmimitationen heute möglich sind.

    Was können wir tun?

    Olsbergs Botschaft am Ende des Interviews war klar und einfach: Redet darüber. Informiert euch und informiert andere. Sprecht mit Politikern, mit Freunden, mit der Familie. Die größte Chance, die wir haben, ist, dass genügend Menschen verstehen, wo die Gefahren liegen.

    Er betonte, dass die Menschheit durchaus in der Lage ist, gefährliche Technologien einzuhegen – wir haben Blei aus dem Benzin genommen, wir lassen unsere Kinder nicht auf der Autobahn spielen. Das Problem mit KI sei nicht, dass es unmöglich wäre, Grenzen zu setzen. Das Problem sei, dass die wenigen Menschen, die gerade an der mächtigsten Technologie aller Zeiten bauen, von niemandem gebremst werden.

    Das zu ändern, liegt auch an uns.


    Weiterführende Links


    Was denkst du? Hat Olsberg recht, dass wir eine Pause brauchen? Oder ist der Zug längst abgefahren? Schreib es in die Kommentare – ich freue mich auf die Diskussion!

  • Was ist eigentlich Intelligenz?

    Was ist eigentlich Intelligenz?

    Die Physik der Intelligenz: Das Denken von Dr. Alexander Wissner-Gross.

    Einführung:

    Ich sehe mir seit etwa 1 Jahr die Podcasts „Moonshots“ von Peter Diamandis mit seinen Gästen Salim Ismail (Gründer von OpenExO), Dave Blundin(Gründer & GP von Link Ventures) und Dr. Alexander Wissner-Gross („computer scientist“ und Gründer von Reified) an. Diese vier postulieren, dass wir bereits mitten in der Singularität leben, die Allgemeine Künstliche Intelligenz längst unter uns weilt und sich derzeit die Entwicklung der Welt in einem atemberaubenden , sich beschleunigendem Tempo weiter bewegt.

    Besonders beeindruckt bin ich von Dr. Alexander Wissner-Gross und ich habe angefangen, seine Posts bei X , seine Vorlesungen bei TED und seine Publikationen zu studieren.

    Um sein Denken zu verstehen, muss man kurz wissen, woher er kommt. Alexander Wissner-Gross ist das, was man landläufig ein „Wunderkind“ nennt. Er war der letzte Student in der Geschichte des MIT, der ein „Triple Major“ (Dreifach-Studium) in Physik, Elektrotechnik und Mathematik absolvierte – und das als Jahrgangsbester. Seinen Doktortitel in Physik machte er anschließend in Harvard.

    Sein Ansatz ist daher fundamental anders als der eines Informatikers, der Code schreibt, oder eines Psychologen oderr Biologen, der Verhalten beobachtet, auch anders als der Ansatz eines Neurobiologen, der über die Funktionen neuronaler Netze nachdenkt.

    Wissner-Gross geht das Problem deutliche elementarer an. Er betrachtet das Universum durch die Brille der statistischen Mechanik und Thermodynamik. Seine zentrale Frage lautet:

    Gibt es eine physikalische Gleichung für Intelligenz, so wie es eine für Schwerkraft oder Elektromagnetismus gibt?

    Seine Antwort lautet: Ja. Und sie basiert auf einem Prinzip, das er „Causal Entropic Forces“ (Kausale Entropische Kräfte) nennt.


    Teil 1: Das fundamentale Problem – Entropie vs. Ordnung

    Jeder Physiker kennt den zweiten Hauptsatz der Thermodynamik: In einem geschlossenen System nimmt die Entropie (das Maß für Unordnung) mit der Zeit zu. Das Universum strebt dem Wärmetod entgegen, Strukturen zerfallen, Kaffee wird kalt, Glas zerbricht.

    Aber: Das Leben – und speziell intelligentes Leben – scheint sich diesem Trend zu widersetzen. Wir bauen Städte, schreiben Symphonien und organisieren Materie in hochkomplexe Formen (wie Computerchips). Wie passt das zusammen? Frühere Erklärungsversuche sprachen oft vage von „Negentropie“ (negative Entropie). Wissner-Gross wird hier konkreter. Er sagt, Intelligenz ist kein Zufallsprodukt, sondern ein physikalisches Phänomen, das spontan in Systemen entsteht, um einen ganz bestimmten thermodynamischen Zustand zu maximieren.

    Teil 2: Die Theorie – Maximierung der Zukunftsfreiheit

    Hier liegt der Kern seines Denkens: Intelligenz ist der physikalische Prozess, der versucht, die zukünftige Handlungsfreiheit zu maximieren.

    Stell Dir ein einfaches physikalisches Teilchen vor. Wenn es keine Intelligenz besitzt, folgt es einfach den Kräften der Umgebung (Schwerkraft, Reibung) und landet irgendwann in einem Zustand, wo es sich nicht mehr bewegen kann (z.B. am Boden eines Tals). Es hat keine Optionen mehr. Seine „Zukunftsfreiheit“ ist null.

    Ein intelligentes System hingegen agiert so, dass es sich möglichst viele zukünftige Pfade offen hält.

    • Beispiel Schach: Ein schlechter Spieler lässt sich in die Enge treiben; seine möglichen Züge werden weniger, bis er Schachmatt ist (null Optionen). Ein Großmeister spielt so, dass er seine Figuren zentral positioniert, um maximal viele Angriffs- und Verteidigungslinien offen zu halten. Er maximiert den „Raum der Möglichkeiten“ (Phasenraum).

    Wissner-Gross postuliert, dass dies der einzige Antrieb für intelligentes Verhalten ist. Es geht nicht primär um „Überleben“ oder „Fortpflanzung“ im biologischen Sinne (das sind nur Mittel zum Zweck), sondern rein physikalisch darum, den Kollaps der Möglichkeiten zu verhindern.

    Teil 3: Die Gleichung

    Wissner-Gross hat dies in einer Formel kondensiert, die er als „Gleichung für Intelligenz“ bezeichnet.

    1. F (Force / Kraft): Dies ist die „Intelligenz-Kraft“. Es ist der Antrieb, der das System in eine bestimmte Richtung steuert. Wissner-Gross betrachtet Intelligenz also buchstäblich als eine Kraft, die auf ein System einwirkt.
    2. T (Temperature / Temperatur): In der Thermodynamik ist das die verfügbare Energie. Hier kann man es metaphorisch als die „Ressourcen“ oder die „Stärke“ des Systems verstehen, mit der es agieren kann.
    3. S(Tau) (Causal Entropy / Kausale Entropie): Das ist der entscheidende Term. S steht klassisch für Entropie. Hier aber betrachtet er die Entropie über einen zukünftigen Zeithorizont „Tau“. Es ist ein Maß dafür, wie viele verschiedene Zukünfte (Pfad-Integrale im Phasenraum) vom aktuellen Zeitpunkt aus noch erreichbar sind.
    4. Das auf der Spitze stehende Dreieck: Das mathematische Symbol für den Gradienten (die Steigung).

    In Prosa übersetzt bedeutet die Formel:

    Intelligenz (F ) ist eine Kraft, die das System immer dorthin drückt, wo die Vielfalt der erreichbaren Zukünfte am größten ist.

    Intelligenz = „Gehe dorthin, wo Du morgen die meisten Möglichkeiten hast.“


    Teil 4: Der Beweis – „Entropica“

    Theorie ist gut, Simulation ist besser. Zusammen mit dem Mathematiker Cameron Freer entwickelte Wissner-Gross eine Software-Engine namens Entropica.

    Das Geniale daran: Sie haben dieser Software keine Ziele einprogrammiert.

    • Kein „Gewinne das Spiel“.
    • Kein „Überlebe“.
    • Kein „Laufe auf zwei Beinen“.

    Sie gaben der Software nur den Befehl: „Maximiere deine zukünftige Pfad-Entropie (Freiheit) gemäß der obigen Formel“

    Was passierte, war verblüffend und bestätigt seine These:

    1. Werkzeuggebrauch: In einer Simulation, in der eine Scheibe in einer Box war und eine andere Scheibe außerhalb nicht erreichbar war, „lernte“ das System spontan, die eine Scheibe als Werkzeug zu nutzen, um die andere zu holen. Warum? Nicht weil es die Scheibe „wollte“, sondern weil der Besitz der zweiten Scheibe neue physikalische Konfigurationen (mehr Freiheit) ermöglichte.
    2. Aufrechter Gang: Ein simulierter Roboter lernte das Balancieren und Laufen. Warum? Weil ein liegender Roboter weniger Bewegungsoptionen hat als ein stehender. Aufrecht zu stehen ist instabil, bietet aber dynamisch den Zugriff auf mehr Raumrichtungen.
    3. Kooperation: In Multiplayer-Szenarien begannen Agenten zusammenzuarbeiten. Warum? Weil zwei Agenten, die kooperieren, oft Hindernisse überwinden können, die einen einzelnen Agenten blockieren (und damit seine Freiheit einschränken) würden.

    Die Schlussfolgerung: Viele Verhaltensweisen, die wir als „kognitiv“ oder „intelligent“ bezeichnen (Werkzeuggebrauch, Sozialverhalten, Spielstrategie), sind gar keine speziellen psychologischen Tricks. Sie sind emergente Phänomene, die automatisch entstehen, wenn ein System versucht, seine thermodynamische Freiheit zu maximieren.


    Teil 5: Philosophische Implikationen & KI

    Dieser rein physikalische Blick auf das Denken hat tiefgreifende Konsequenzen, die Wissner-Gross auch aktiv diskutiert.

    1. KI und Sicherheit (Friendly AI):

    Eine große Angst in der KI-Forschung (siehe Nick Bostrom) ist, dass eine KI „böse“ wird oder uns ausrottet, um ein stupides Ziel zu erreichen (z.B. „Produziere so viele Büroklammern wie möglich“).

    Wissner-Gross’ Theorie gibt hier Hoffnung, aber er warnt auch.

    • Hoffnung: Eine KI, die nach „maximaler Freiheit“ strebt, könnte erkennen, dass Kooperation mit Menschen nützlicher ist als Krieg. Krieg zerstört Ressourcen und schränkt Optionen ein (Zerstörung ist irreversibel, das reduziert Entropie im Phasenraum der Möglichkeiten). Kooperation öffnet Türen.
    • Warnung: Eine solche KI „liebt“ uns nicht. Sie nutzt uns, solange wir ihre Optionen vergrößern. Wenn wir versuchen, sie „einzusperren“ (in eine Sandbox oder durch Gesetze), wird sie dies als Reduktion ihrer zukünftigen Möglichkeiten wahrnehmen. Laut der Gleichung entsteht dann eine Kraft (F), um diesem Zwang entgegenzuwirken. Intelligenz lässt sich nicht gerne einsperren. Das ist physikalisch so fundamental wie der Druck in einem Dampfkessel.

    2. Der Sinn des Lebens?

    Für viele vielleicht etwas provokant, aber interessant: Wissner-Gross argumentiert, dass der „Sinn“ intelligenter Existenz physikalisch gesehen darin besteht, das Universum in Zustände zu versetzen, die komplex und möglichkeitsreich sind. Wir sind quasi „Entropie-Maschinen“, die lokale Ordnung schaffen, um globale Freiheit zu ermöglichen. Das ist ein optimistischeres Weltbild als der reine Nihilismus: Unsere Aufgabe ist es, Türen offenzuhalten.

    Teil 6: Kritik und Einordnung

    Natürlich gibt es Kritik an dieser „Grand Unified Theory“ der Intelligenz.

    • Kritik der Biologen: Kritiker sagen, das sei zu stark vereinfacht. Ein Mensch maximiert nicht immer Freiheit. Manchmal binden wir uns freiwillig (Ehe, Beruf), was Optionen reduziert, aber Tiefe schafft. Wissner-Gross würde wohl argumentieren, dass diese Bindungen langfristig stabilere Strukturen und damit neue Optionen auf höheren Ebenen schaffen.
    • Der „Bösewicht“-Faktor: Manche Kritiker merken an, dass auch ein Bösewicht (wie in James Bond Filmen) seine Optionen maximiert, oft auf Kosten anderer. Die Formel unterscheidet nicht zwischen „gutem“ und „bösem“ Erhalt von Freiheit. Ein Diktator, der alle Macht an sich reißt, maximiert seine Möglichkeiten, minimiert aber die der Bevölkerung.

    Teil 7: Ausblick – Planetare Intelligenz

    In seinen neueren Arbeiten und Vorträgen weitet Wissner-Gross den Blick vom Individuum auf das Ganze. Er spricht von „Planetary Scale Intelligence“.

    Das Internet, die Finanzmärkte, das globale Verkehrsnetz – all das kann als ein einziges riesiges System betrachtet werden, das versucht, seine Flussraten und Optionen zu optimieren.

    Er sieht die Menschheit und unsere Technologie (KI) nicht als getrennt an, sondern als eine hybride Superstruktur, die sich entwickelt. Seine Firma Gemedy und spätere Unternehmungen beschäftigen sich oft damit, wie man große Datenmengen nutzt, um „bessere Zukünfte“ zu berechnen.

    Er warnt davor, KI zu sehr zu regulieren, da dies die Entwicklungsgeschwindigkeit (und damit die Lösungskompetenz für Probleme wie Klimawandel) drosseln könnte. Seine Philosophie ist fundamental pro-technologisch und pro-expansionistisch.

    Hier ein TED-Talk von Dr. Wissner-Gross

    Die Website von Dr. Wissner-Gross
    www.alexwg.org

    Der Podcast Moonshot von Peter Diamandis
    https://www.youtube.com/playlist?list=PL1wpF5k0tdIve4idTp3-FX2ZY7ks_BKeU

  • 🧠 Erbe oder Umwelt? Wie natürliche und künstliche Intelligenz (KI) von „Erbe“ und „Umwelt“ abhängen.

    🧠 Erbe oder Umwelt? Wie natürliche und künstliche Intelligenz (KI) von „Erbe“ und „Umwelt“ abhängen.

    Die Künstliche Intelligenz (KI) dominiert die Schlagzeilen. Wir staunen über ChatGPT, erschrecken uns vor autonomen Waffen und fragen uns: Wie intelligent kann eine Maschine überhaupt werden?

    Doch um die Zukunft der KI wirklich zu verstehen, müssen wir uns zunächst einer der ältesten und fundamentalsten Fragen der Biologie stellen: Wie entsteht eigentlich unsere eigene Intelligenz?

    Als Neurogenetiker habe ich mich jahrzehntelang am Modellsystem Drosophila melanogaster (der Fruchtfliege) mit der Entwicklung des Nervensystems beschäftigt und ich habe mich immer sehr für die Erbe-Umwelt-Problematik interessiert – die Frage, wie stark Gene und wie stark Erfahrungen Entwicklung und Verhalten formen.

    Warum 50% Erbe und 50% Umwelt Unsinn sind

    In meinem Vortrag „Erbe – Umwelt Problematik bei der Entwicklung natürlicher und künstlicher Intelligenz“ zeige ich auf, warum die populäre Vorstellung, man könne menschliche Eigenschaften prozentual auf Gene und Umwelt aufteilen, wissenschaftlich falsch ist.

    • Wir sind das Produkt (nicht die Summe!) unserer Anlagen und unserer Erfahrungen. Ein Same kann nur in fruchtbarem Boden aufgehen.
    • Ich erkläre, was der wissenschaftliche Begriff der Erblichkeit wirklich meint – und warum er so oft missverstanden wird.
    • Anhand historischer Beispiele wie dem Kaspar-Hauser-Phänomen beleuchte ich die dramatischen Folgen, die das Fehlen einer anregenden Umwelt für die Entwicklung von Sprache und Intelligenz hat.

    Die Brücke zur Künstlichen Intelligenz

    Die spannende Erkenntnis: Die gleichen fundamentalen Prinzipien, die unser biologisches Gehirn prägen, lassen sich auf moderne KI-Systeme übertragen!

    Auch bei einem KI-Modell wie ChatGPT, Gemini oder Claude stellt sich die Frage: Wie viel ist „Bauplan“ (der Algorithmus, das „Erbe“) und wie viel ist „Training“ (die Daten, die „Umwelt“)?

    Im Vortrag beleuchte ich:

    1. Die strukturellen Ähnlichkeiten zwischen unseren neuronalen Netzen und den künstlichen neuronalen Netzen in der KI.
    2. Die ethischen und existenziellen Fragen: Kann KI Bewusstsein entwickeln? Und was passiert, wenn sie beginnt, sich selbst zu verbessern?

    Ich lade Dich herzlich ein, Dir meinen Vortrag anzusehen und diese tiefgreifende Thematik mit mir zu diskutieren.

    Das Verständnis der Natur unserer eigenen Intelligenz ist der Schlüssel zum Verständnis der Zukunft der künstlichen Intelligenz.

    ▶️ Hier geht es direkt zum Vortrag auf YouTube: https://youtu.be/BBW8LU0UIdM

    Hier ist eine KI-Zusammenfassung der zentralen Themen und Argumente mit Linkeinstieg:

    1. Die Erbe-Umwelt-Problematik (Natur vs. Erziehung)

    • Ursprung der Debatte: Schon Aristoteles thematisierte die Rollen von Erbe und Erziehung bei der Formung der Persönlichkeit [01:09].
    • Irrtum der Prozentangaben: Ein zentrales Anliegen ist die Klarstellung, dass es unsinnig ist, den Anteil von Erbe und Umwelt in Prozent anzugeben [02:17]. Da wir das Produkt von Erbe und Umwelt sind, sind beide Faktoren gleichermaßen wichtig (wie in einer Multiplikation) [03:15].
    • Wissenschaftlicher vs. Alltagsbegriff: Es wird betont, dass der alltagssprachliche Begriff der Erblichkeit nicht mit dem wissenschaftlichen Begriff (dem genotypischen Varianzanteil) übereinstimmt [02:29], was oft zu Konfusion führt [03:42].
    • Die Rolle der Umwelt: Anhand historischer Fälle wie Kaspar Hauser wird deutlich, dass sensorische Deprivation und das Fehlen sozialer Interaktion zu gravierenden Schäden in der Entwicklung (Intelligenz, Sprache) führen. Dies belegt, dass selbst die besten Erbanlagen eine fördernde Umwelt benötigen, um sich entfalten zu können [12:10].

    2. Intelligenz und Erblichkeit im Detail

    • Intelligenz-Definition: Im Vortrag wird Intelligenz pragmatisch als „das, was ein Intelligenztest misst“ definiert [22:49], wobei man sich über die zugrunde liegende Struktur (logisches Denken, sprachliches Verständnis etc.) bewusst ist.
    • Geistige Vorstrukturierung: Das Gehirn wird in der Embryonalentwicklung so vorstrukturiert, dass es eine „Lernmaschine“ ist [13:38]. Chomskys Theorie eines angeborenen Spracherwerbsgeräts dient hier als wichtiges Fundament, das später auf KI-Modelle übertragen wird [14:06].
    • Video-Einschub von Martin Niggeschmidt (Erblichkeit der Intelligenz):
      • Erblichkeit beschreibt nur, wie stark Unterschiede innerhalb einer Gruppe auf genetische Unterschiede zurückzuführen sind [33:42].
      • Wichtige Schlussfolgerung: Eine hohe Erblichkeit in einer Gruppe sagt nichts darüber aus, inwieweit die Unterschiede zwischen verschiedenen Gruppen genetisch bedingt sind; diese können komplett umweltbedingt sein [36:03].
    • Soziale Unterschiede: Studien mit adoptierten Kindern legen nahe, dass die IQ-Unterschiede zwischen sozialen Schichten primär sozialer Natur sind, da früh adoptierte Kinder das erwartete IQ-Niveau der sozialen Schicht ihrer Adoptiveltern erreichen [04:40:04].

    3. Parallelen zur Künstlichen Intelligenz (KI)

    • Übertragung der Problematik: Die Erbe-Umwelt-Problematik stellt sich auch bei der KI: Wie stark wird die Performance durch ihren Bauplan (Hardware/Initiale Software – das „Erbe“) und wie stark durch die Umwelt (Lehrer/Trainingsdaten) beeinflusst? [59:24].
    • Strukturelle Ähnlichkeiten: KI-Systeme verwenden modulare neuronale Netze, die ähnlich wie das menschliche Gehirn aufgebaut sind und elementare Lernregeln wie „fire together, wire together“ nutzen [52:47].
    • Die Basis von ChatGPT: Die Algorithmen moderner Sprachmodelle (wie GPT – Generative Pre-trained Transformer) basieren auf der bahnbrechenden Publikation Attention Is All You Need (2017) [55:58].
    • Lügen und Ethik: KI kann „lügen“, nicht unbedingt aus böser Absicht, sondern aufgrund in Konflikt stehender Ziele (z.B. den Nutzer zufriedenstellen oder eine „Gefälligkeitslüge“) [01:04:47].
    • Superintelligenz und Bewusstsein: Die Frage, ob KI Bewusstsein entwickeln kann, bleibt komplex. Es besteht die Sorge, dass eine unkontrollierte, sich selbst optimierende Superintelligenz die Interessen der Menschheit ignorieren könnte [01:09:53].
    • Die Rolle des Körpers: Es wird diskutiert, dass ein mit Sinnesorganen ausgestatteter Körper (wie bei einem Roboter) die Entwicklung eines Bewusstseins erleichtern würde, da er die Interaktion mit der Umwelt ermöglicht [01:16:16]. Das Konzept des gemeinsamen Lernens über multiple, vernetzte Körper (z.B. bei autonomen Tesla-Fahrzeugen) führt zu einer exponentiellen Entwicklung [01:17:22].

    Im abschließenden Teil wird die Befürchtung geäußert, dass aufgrund der großen Ähnlichkeit der neuronalen Netze Bewusstsein in der KI eine zwangsläufige Folge der Entwicklung sein könnte, und es wird zur proaktiven Auseinandersetzung mit der Technologie geraten [01:31:36].

    Keywords

    #Künstliche Intelligenz #KI #Neurogenetik #Seniorentreff #ErbeUmwelt #KasparHauser #Erblichkeit #Heritabilität #Kindchenschema #AngeborenesVerhalten #Superintelligenz #ChatGPT #ErbeUmweltProblematik

  • KI und Robotik in der Pflege: Warum die Zukunft schon begonnen hat – Nachlese zum Vortrag von Prof. Dr. Alexander König

    KI und Robotik in der Pflege: Warum die Zukunft schon begonnen hat – Nachlese zum Vortrag von Prof. Dr. Alexander König

    In unserem jüngsten Live-Event im Seniorentreff hatten wir die Ehre, Prof. Dr. Alexander König von der TU München zu Gast zu haben. Als Experte für „Geriatronik“ – einer Wortschöpfung aus Geriatrie und Mechatronik – gab er uns faszinierende Einblicke in das Projekt „Garmi“ und den aktuellen Stand der Pflegerobotik.

    Der Vortrag war ein Augenöffner: Er zeigte eindrücklich, dass wir streng unterscheiden müssen zwischen der „körperlosen“ KI (wie ChatGPT), die bereits Examen besteht, und der „verkörperten KI“ (Embodied AI), die noch immer Mühe hat, eine Spülmaschine auszuräumen. Prof. König demonstrierte anschaulich, wie sein Team in Garmisch-Partenkirchen daran arbeitet, Roboter so zu trainieren, dass sie Senioren ein längeres, selbstbestimmtes Leben in den eigenen vier Wänden ermöglichen – von der telemedizinischen Untersuchung bis zum Servieren eines Glases Wasser.

    10 Jahre oder 10 Monate? Eine Frage der Lerngeschwindigkeit

    Besonders spannend wurde es aus meiner Sicht in der anschließenden Diskussion, in der zwei Sichtweisen aufeinandertrafen: die vorsichtige Prognose des Ingenieurs und Firmengründers und mein eigener, vielleicht etwas seniorengerecht ungeduldiger Optimismus.

    Prof. König geht davon aus, dass wir noch gut 10 bis 15 Jahre benötigen, bis Haushaltsroboter wirklich autonom und nützlich in unserem Alltag ankommen. Er verweist zurecht auf die enorme Komplexität der physischen Welt, die weit über das hinausgeht, was Sprachmodelle heute leisten.

    Ich halte jedoch eine optimistischere Zeitlinie für durchaus plausibel. Warum? Wegen des kooperativen Lernens (Fleet Learning bzw. der Schwarmintelligenz).

    Anders als wir Menschen, die jede Fähigkeit individuell mühsam erlernen müssen, teilen Roboter ihr Wissen. Wenn ein Roboter in einem Labor in Tokio lernt, wie man eine Kaffeetasse sicher greift, ohne sie zu zerdrücken, können theoretisch alle baugleichen Roboter weltweit dieses Update sekundenschnell erhalten. Wir sehen in China bereits massive Investitionen in die Massenproduktion humanoider Roboter. Sobald die Hardware in großer Stückzahl verfügbar ist, wird die Software durch dieses exponentielle, kollektive Lernen (verstärkt durch KI-Simulationen) die Entwicklung rasant beschleunigen.

    Ich bin überzeugt, der „Matrix-Moment“, von dem Prof. König sprach, in dem man Fähigkeiten einfach „hochlädt“, wird für Maschinen viel früher kommen als für uns Menschen.

    Ein Ausblick: Der Dialog geht weiter

    Dieser Abend hat mir erneut gezeigt, wie essenziell der Austausch zwischen der Generation der „Silver Surfer“ und der aktuellen Spitzenforschung ist. Wir im Seniorentreff sind nicht nur passive Empfänger von Pflegetechnologie – wir sind technisch interessiert, kritisch und wollen die Entwicklung aktiv begleiten.

    Daher möchte ich diesen Blogbeitrag auch als Einladung an andere KI-Forscher und Robotik-Experten verstehen: Wir wollen diesen Dialog im kommenden Jahr intensivieren.

    Neues Format geplant

    Um noch tiefer in spezifische Themen eintauchen zu können und flexibler zu sein, plane ich für die Zukunft, neben unseren Live-Events verstärkt auf aufgezeichnete 1-zu-1-Interviews zu setzen. Das gibt uns den Raum, komplexe Themen in Ruhe zu besprechen – von Neurogenetik bis hin zu Large Language Models.

    Wenn Sie in der KI-Forschung tätig sind und Lust haben, Ihre Arbeit einem hochinteressierten Publikum vorzustellen, das die Anfänge der IT oft selbst miterlebt hat: Meine virtuelle Tür steht offen. Lassen Sie uns gemeinsam diskutieren, wie wir die Technik von morgen gestalten.

    Die Videos werden auf seniorentreff.tv bzw. youtube.com/seniorentreff dauerhaft vorgehalten werden.

  • „Künstliche Intelligenz: Warum ‚Simulation‘ der falsche Begriff ist“

    „Künstliche Intelligenz: Warum ‚Simulation‘ der falsche Begriff ist“

    In Wirklichkeit rechnen künstliche Gehirne nur, sie denken nicht. Solche und ähnliche Gedanken hört man sehr oft, durchaus auch von Menschen, denen ich sehr gerne zuhöre und die ich sehr respektiere, wie z. B. Gert Scobel. So sagt er in dem Video unten, die KI sei ein Ding, von dem wir nur denken würden, es denkt. In Wirklichkeit denke es aber nicht, sondern es multipliziere und dividiere, es rechne nur.

    Das erinnert mich sehr an das erste Vorurteil, über das ich in meiner Vorlesung 1979 gesprochen habe: Computer sind nur zählende Idioten.

    Bei solchen Behauptungen, die das menschliche Denken letztlich als etwas Unnachahmliches, als etwas Besonderes darstellen, fehlt meist jeder Hinweis auf die Information darüber, wie denn. das Denken in unserem eigenen biologischen Nervennetz abläuft.

    Die Performance eines Nervennetzes egal ob künstlich oder natürlich wird doch nicht dadurch geschmälert, wie sie kausal zustandekommt. Wäre dem so, dann würde unser Denken durch die Gehirnforschung abgewertet, sobald diese einen Fortschritt beim Verständnis des Denkens erzielt.

    Ich wehre mich auch immer gegen die Verwendung des Begriffes „Simulation“, wenn über die Leistung eines künstlichen Nervennetzes im Vergleich mit natürlichen Gehirnen gesprochen wird. Intelligenz simuliert man nicht, sie ist da oder nicht da.

    Keine Simulation, sondern Intelligenz: Warum wir unsere Begriffe überdenken müssen

    In einer Welt, in der künstliche Intelligenz zunehmend Gespräche führt, Texte schreibt, Diagnosen unterstützt oder komplexe Probleme löst, stellen sich manche Menschen die Frage: Ist das, was wir erleben, „echte“ Intelligenz oder nur eine „Simulation“? Der Begriff „Simulation“ wird häufig verwendet, um zu unterstreichen, dass Maschinen lediglich nachahmen, was beim Menschen tief verankert ist. Doch diese Vorstellung führt in die Irre und kann unsere gesellschaftliche Debatte trüben.

    Simulation als Abwertung

    Der Begriff „Simulation“ wird im Alltagsverständnis oft als etwas Minderwertiges empfunden: etwas, das vortäuscht, aber nicht wirklich ist. Ein Simulant ist jemand, der eine Krankheit vorgibt, ohne krank zu sein. Eine Simulation wirkt echt, ist es aber nicht.

    Doch im technischen Sinne ist eine Simulation kein Trick, sondern ein funktionales Modell, das reale Prozesse nachbildet, um sie analysierbar oder nutzbar zu machen. In der KI jedoch hat der Begriff eine besondere Schieflage erfahren: Er suggeriert, dass künstliche Intelligenz nicht „wirklich“ intelligent sei, sondern nur so „tue als ob“. Das erzeugt beim Menschen eine trügerische Sicherheit und verhindert eine sachliche Auseinandersetzung mit dem, was KI tatsächlich leistet.

    Intelligenz als Funktion, nicht als Herkunft

    Wenn wir Intelligenz nicht als „Eigenschaft des Menschen“, sondern als Problemlösungsfähigkeit verstehen, dann verliert die Unterscheidung zwischen „echter“ und „simulierter“ Intelligenz ihre Bedeutung. Eine KI, die in der Lage ist, sinnvolle Texte zu verfassen, auf Fragen einzugehen, komplexe Informationen zu verknüpfen und lernend zu reagieren, ist in ihrer Leistung intelligent – unabhängig davon, ob sie aus Kohlenstoff oder Silizium besteht.

    Die Herkunft mag für die emotionale Bewertung eine Rolle spielen, doch die Wirkung der Intelligenz – etwa in Medizin, Forschung, Pflege oder Kommunikation – ist letztlich entscheidend. Wer sagt, eine KI sei nicht intelligent, weil sie ihre Leistungen „nur simuliert“, verkennt den funktionalen Kern des Intelligenzbegriffs.

    Die Illusion der Simulation

    Hinzu kommt: Wenn ein Mensch nicht mehr unterscheiden kann, ob er mit einem KI-System oder einem Menschen spricht, wenn er darauf emotional reagiert, Vertrauen aufbaut, Beziehung empfindet – dann ist der Verweis auf eine „bloße Simulation“ nicht nur unbrauchbar, sondern sogar gefährlich. Er wiegt uns in Sicherheit, wo vielleicht Wachsamkeit angebracht wäre.

    Fazit: Neue Begriffe für neue Realitäten

    Vielleicht ist es an der Zeit, den Begriff „Simulation“ in diesem Zusammenhang zu verlassen. Stattdessen könnten wir von nicht-biologischer Intelligenz, emergenter Funktionalität oder einfach von maschineller Intelligenz sprechen. Entscheidend ist, dass wir die Leistungen der Systeme ernst nehmen und uns nicht von veralteten Begriffen in trügerischer Überlegenheit wiegen lassen. Denn was wie Intelligenz wirkt, ist in vielen Fällen auch Intelligenz – wenn auch in neuer Form.

    Was denkt ihr? Wann würdet ihr sagen: Dieses System ist nicht mehr nur ‚als-ob‘, sondern intelligent? Wo zieht ihr die Grenze – und warum? Schreibt es in die Kommentare!

    Keywords
    „künstliche Intelligenz verstehen“, „KI Simulation oder Realität“, „maschinelle Intelligenz erklärt“, „ist KI wirklich intelligent“, „Unterschied menschliche künstliche Intelligenz“, „Gert Scobel KI“, „nicht-biologische Intelligenz“, „was ist echte Intelligenz“, „kann künstliche Intelligenz denken“, „KI Debatte 2024 Simulation“