„VOM DENKEN UND VERSTEHEN – WIE MENSCHEN UND MASCHINEN WIRKLICH TICKEN“. So lautete der Vortrag unseres Kollegen und KI-Experten Michael Romer auf der data:unplugged – Europas größtem Festival für Daten und KI. Das Event fand Ende März mit über 11.000 Besuchern in Münster statt. Für unseren agrar-Kontakt-Blog hat uns Michael sein Vortragsthema als Beitrag aufbereitet:

Quelle: data:unplugged

Denkt KI wirklich – oder simuliert sie nur Verstehen?

Heute ist dieser Effekt stärker denn je. Moderne KI-Systeme sprechen über Politik, Physik, Gefühle oder Religion so überzeugend, dass wir ihnen leicht Geist, Verständnis oder sogar inneres Leben zuschreiben. Genau hier beginnt die eigentliche Frage: Denkt KI wirklich? Versteht sie, worüber sie spricht?

Um das zu beurteilen, lohnt zuerst der Blick auf den Menschen:

Menschen lernen nicht bloß Informationen auswendig. Sie wachsen in die Welt hinein, machen Erfahrungen, handeln, scheitern, beobachten Folgen und entwickeln daraus ein inneres Modell der Realität. Dieses Modell ist keine exakte Kopie, sondern eine aktive Konstruktion, geprägt von Perspektive, Relevanz und persönlichem Erleben.

Zentral für menschliches Denken ist zudem unser Bedürfnis, Kausalität zu begreifen. Es reicht uns nicht, dass Dinge gemeinsam auftreten – wir wollen wissen, warum etwas geschieht, was Ursache und Wirkung ist und was passiert wäre, wenn Bedingungen anders gewesen wären. Man kann dieses Verstehen als Leiter beschreiben. Auf der ersten Stufe steht das assoziative Denken: Muster und Regelmäßigkeiten erkennen. Auf der zweiten geht es um Eingriffe: Wenn ich X tue, was passiert mit Y? Auf der dritten folgt kontrafaktisches Denken: Was wäre gewesen, wenn? Was hätte sich verändert, wenn ein Faktor gefehlt hätte?

Diese Formen des Verstehens sind beim Menschen mit etwas verbunden, das über reine Informationsverarbeitung hinausgeht: mit Selbstbezug, Perspektive, Gefühlen und subjektiver Bedeutung. Dinge sind für uns nicht bloß Daten. Ein heißer Herd ist nicht nur ein Objekt mit Temperatur, sondern etwas Gefährliches. Kaffee ist nicht nur eine Substanz, sondern Geruch, Geschmack, Gewohnheit, vielleicht sogar Trost.

Hier liegt der grundlegende Unterschied zur KI:

Nach allem, was wir wissen, besitzt sie zwar Teile kognitiver Strukturen, aber keine gelebte Einbettung in die Welt. Sie hat kein Bewusstsein, kein eigenes Erleben, keine Emotionen und kein subjektives Gefühl von Bedeutung. Sie lebt nicht in der Welt, sondern verarbeitet Daten über die Welt.

Menschen lernen in der Welt, KI nur über die Welt. Wir sind verkörperte, verletzliche Organismen mit Bedürfnissen und Konsequenzen. Fehler betreffen uns real. KI dagegen operiert in einem abstrakten Raum aus Symbolen, Zahlen und statistischen Mustern. Sie erlebt nicht selbst, sondern verarbeitet Texte, Bilder oder Sensordaten, die wir ihr liefern. In diesem Sinn ist sie keine eigenständige Intelligenzform, sondern abgeleitete Intelligenz – abhängig von menschlicher Erfahrung, Sprache und Datenerzeugung.

Nun scheint KI oft dennoch kausal korrekt zu antworten:
Auf die Frage, was mit einem Topf Wasser auf Herdstufe neun geschieht, sagt sie zuverlässig: Das Wasser beginnt zu kochen. Das klingt nach echtem Verständnis. Doch die Maschine weiß nicht im menschlichen Sinn, was Wasser, Hitze oder Kochen sind. Sie hat nie Dampf gesehen, nie Hitze gespürt und nie erlebt, wie Wasser tatsächlich kocht. Sie kennt nur die typischen sprachlichen Zusammenhänge, in denen diese Begriffe gemeinsam auftreten.

Ihre Antworten sind oft beeindruckend, aber nicht dasselbe wie kausal in der Welt verankertes Verstehen. Man könnte von Scheinkausalität sprechen: Die Maschine erzeugt Aussagen, die kausal wirken, weil sie gelernt hat, wie kausale Erklärungen sprachlich aussehen. Aus Daten allein lässt sich jedoch nicht eindeutig auf die zugrunde liegende Kausalstruktur schließen.

Das erklärt auch, warum moderne KI trotz großer Erfolge nicht automatisch die höheren Stufen der Kausalitätsleiter erreicht. Sie ist extrem stark auf der ersten Stufe – beim Erkennen und Skalieren von Mustern. Gerade weil diese Fähigkeit so mächtig geworden ist, wirkt es manchmal, als hätte sie auch die tieferen Stufen des Verstehens erreicht. Häufig simuliert sie jedoch nur deren Oberfläche.

Anschaulich wird das in einem Gedankenexperiment:

Ein Außerirdischer erhält Zugriff auf alle Bücher, Zeitungen, Foren und Webseiten der Menschheit. Er erlebt nichts von dem, was er liest, analysiert aber perfekt alle Symbole, Satzmuster und Zusammenhänge. Später besucht er die Erde und beantwortet politische, moralische oder physikalische Fragen präzise, logisch und in perfektem Englisch.

Versteht dieser Außerirdische wirklich, worüber er spricht? Vielleicht würde man spontan JA sagen. Aber vielleicht operiert er nur mit Symbolbeziehungen, ohne dass diese je in einer gelebten Welt für ihn verankert waren.

Genau das beschreibt das Symbol Grounding Problem:
Symbole sind nur dann wirklich „geerdet“, wenn sie mit Wahrnehmung, Erfahrung und Weltbezug verbunden sind. Für Menschen ist „Wasser“ mit Trinken, Regen, Schwimmen, Kälte oder Dampf verknüpft. Für KI könnte „Wasser“ dagegen nur ein hochfunktionaler Punkt in einem riesigen Netz von Symbolen sein – nützlich, aber nicht erlebt.

Das macht KI nicht wertlos oder unintelligent. Im Gegenteil:
Ihre eigentliche Provokation besteht darin, dass sie trotz fehlender Erfahrung Leistungen zeigt, die wir als intelligent wahrnehmen. Vielleicht offenbart sie gerade dadurch etwas Überraschendes: dass für manche anspruchsvollen kognitiven Leistungen weniger nötig ist, als wir lange annahmen. Ob KI denkt, bleibt deshalb schwer zu beantworten.

Denken ist keine Größe, die sich einfach messen lässt.

Letztlich hängt die Antwort davon ab, was wir unter „Denken und Verstehen“ verstehen. Wer streng urteilt, sagt: KI rechnet nur und imitiert Verstehen. Wer großzügiger ist, hält sie vielleicht für eine andere, nichtmenschliche Form des Denkens. Wer vorsichtig bleibt, landet in einer Grauzone.

Vielleicht ist genau das die spannendste Leistung der KI: Sie zwingt uns nicht nur, Maschinen neu zu betrachten, sondern auch uns selbst. Was meinen wir eigentlich, wenn wir sagen, jemand versteht etwas? Reichen richtige, anschlussfähige Antworten aus – oder gehören dazu unverzichtbar Weltbezug, Erfahrung, Bedeutung und Erleben?

Die Frage ist also nicht nur: Ist da jemand zu Hause?
Sondern auch: Was müsste überhaupt der Fall sein, damit wir diese Frage mit Ja beantworten dürften?

Möchten Sie mehr Wissen zu Daten & KI? Oder suchen Sie Jemanden,

der Ihrem Unternehmen oder Ihrer Organisation etwas darüber erzählt?

Als Verlag ist es unsere Mission, Informationen aufzubereiten, anzureichern, einzuordnen und zu vermitteln. Das bieten wir Ihnen nicht nur bei Agrar-Themen auch bei allem Wissenswertem rund um KI.

Lassen Sie uns reden:

Quelle: data:unplugged

Michael Romer
E-Mail:
Michael.Romer@lvdigital.de
Tel. +49 / 2501 / 801 -2451

zurück