philosophy

Sprache und Computer


 
Ein philosophische Problem hat die Form: ,,Ich kenne mich nicht aus.''

Ludwig Wittgenstein, Philosophische Untersuchungen

 
Diese Einführung umreißt den philosophischen und wissenschaftlichen Rahmen der Arbeit. Es wird auf die Entwicklung der Forschung auf dem Gebiet der Sprache und der KI hingewiesen und die Bedeutung statistischer Verfahren für maschinelle Sprachverarbeitung herausgestellt. Im letzten Abschnitt wird ein Überblick auf die folgenden Kapitel gegeben.

Sprache
Sprache ist ein weites Feld. So ist sie ein Mittel zur Kommunikation, sie ermöglicht es uns Menschen, unsere Wünsche, Ziele und Absichten anderen Menschen mitteilen zu können. Diese Fähigkeit, komplexe Sachverhalte kommunizieren zu können, ist eine der größten Geistesleistungen des Menschen, sie macht einen wesentlichen Teil unserer Intelligenz aus.

Auch entwickeln wir einen Großteil unseres Wissens über die Welt in Sprache. Über Jahrhunderte hinweg wurden philosophische und wissenschaftliche Ansichten in Form von Schriften und Büchern verbreitet und erhalten. Es ist daher nicht verwunderlich, daß in der Philosophie die Behauptung aufkam, daß Denken im Kern sprachlich ist. So schreibt Ludwig Wittgenstein im Tractatus Logico-Philosphicus: ,,Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt''. Descartes argumentierte, daß unser Denken auf Sprache beruht und Tiere, die nicht sprechen können, kein Bewußtsein haben.

Neben dem aktiven Sprachgebrauch (sprechen, hören, lesen), reden wir ständig mit uns selbst. Dennet schreibt in seinem Buch ,,Consciousness Explained'', daß dieser innere Dialog uns erst über uns selbst klarwerden läßt. Erst wenn wir einen Gedanken in Worte fassen, können wir ihn wirklich verstehen. Unser Selbst ist nichts anderes als das Zentrum aller unserer Aussagen über uns Center of Narrative Gravity.

Zwar erkennen wir heute zunehmend, daß die Rolle der Sprache wohl überschätzt und ein wesentlicher Teil unseres Denkens eben nicht sprachlich ist. Dennoch müssen wir zweifelsohne zugeben, daß Sprache wesentliche Aspekte unseres Denkens widerspiegelt. Sprache ist immer noch der wichtigste Schlüssel zu unserem Geist.

Kompositionalitätsprinzip
Ludwig Wittgenstein schrieb Anfangs des Jahrhunderts eine der bedeutendsten philosophischen Arbeiten über Sprache: den ,,Tractatus logico-philosophicus''. Nach seiner Auffassung bildet Sprache die Welt ab. Die Struktur der Sprache stimmt mit der Struktur der Welt überein. Ziel jeder philosophischen Bemühung ist es somit, die Sprache von Verwirrungen zu befreien, damit der Blick auf die wahre Welt möglich ist.

Wörter bezeichnen Dinge in der Welt oder beschreiben, wie diese verknüpft werden können. Damit läßt sich die Bedeutung von Sätzen als Funktion seiner Wörter darstellen. Dies wird das Frege'sche Kompositionalitätsprinzip genannt: die Annahme, daß wir längere Texte dadurch verarbeiten können, indem wir sie immer mehr bis zu ihren Bestandteilen zerlegen.

Obwohl dies ist eine hilfreiche Annahme für begrenzte Sprachsituationen ist, versagt sie bei einer vollständigen Betrachtung der Sprache. So lassen sich Wörter nicht klar atomar definieren, sondern haben eine eher vage, vielschichtige Bedeutung. Wittgenstein distanzierte sich somit in seinen späteren ,,Philosophischen Untersuchungen'' von seinen ursprünglichen Ansichten. Er erkennt, daß die Bedeutung eines Wortes entscheidend von dem jeweiligen {\em Sprachspiel}, von der jeweiligen Sprachsituation abhängt.

Ähnliche Widersprüche zum Kompositionalitätsprinzip rufen Kontexteffekte, Metaphern und Sarkasmus hervor, wo sich die wörtliche Bedeutung von der tatsächlichen unterscheidet. Lakoff und Johnson argumentieren in dem Buch ,,Methaphors we live by'', daß natürliche Sprache von Grund auf metaphorisch organisiert ist.

Je mehr wir über menschliche Sprache lernen, desto mehr Schwierigkeiten erkennen wir. Sprache ist voller Ungenauigkeiten, Unregelmäßigkeiten und Ausnahmen. Es scheint keine Regel zu geben, die nicht auch gebrochen werden kann. Nur eines ist klar: Unser Gehirn verarbeitet Sprache anders als wir es uns bislang vorstellen können.

Künstliche Intelligenz
Die Geburtsstunde der Forschungsrichtung Künstliche Intelligenz (KI) als Teildisziplin der Informatik folgte kurz auf das Aufkommen der ersten elektronischen Digitalrechner. Ihr letztendliches Ziel ist nichts Geringeres als das Nachbilden und Übertreffen menschlicher Geistesleistungen.

Die Anfangszeit der KI war gekennzeichnet von heute kaum mehr nachvollziehbarer Euphorie. 1958 machte beispielsweise Herbert Simon folgende Vorhersagen für das Jahr 1968:

    • A digital computer would be world chess champion, unless the rules barred it from competition.
    • A digital computer would discover and prove an important new mathematical theorem.
    • Most theories in psychology would take the form of computer programs, or of qualitative statements about the characteristics of computer programs.

    Übersetzung:

    • ,,Ein Digitalcomputer würde Schachweltmeister werden, wenn er nicht durch Regeln vom Wettbewerb ausgeschlossen würde.
    • Ein Digitalcomputer würde ein bedeutendes neues mathematisches Theorem entdecken und beweisen.
    • Die meisten psychologischen Theorien würden die Form von Computerprogrammen annehmen, oder qualitative Aussagen über die Eigenschaften von Computerprogrammen sein.''

Heute, fast vierzig Jahre später, ist keines dieser Ziele erreicht. KI Forschung hat vielerorts das Image einer Wissenschaft, die ihre Versprechen nicht einhalten kann. Teile der KI haben sich daher vom ursprünglichen Ziel verabschiedet und widmen sich der Entwicklung von sogenannten KI-Methoden und deren Anwendung in mehr kommerziellen Produkten.

Andererseits ist der Erfolg von Computern insgesamt umbestritten. Es gibt fast keinen Bereich der Gesellschaft, den die Informationsrevolution unberührt gelassen hat. Software erledigt Arbeitsvorgänge, die traditionell von Menschen ausgeführt wurden, und eröffnet neue Möglichkeiten. Der Computer zählt zweifelslos zu den wichtigsten Erfindungen der Moderne.

Diese herausragenden Leistungen der maschinellen Datenverarbeitung stoßen sehr schnell an Grenzen, wenn intelligenterer Umgang mit Informationen verlangt ist. Die Schwierigkeiten der KI haben klar aufgezeigt, daß sich menschliches Denken nicht einfach in die Regelsprache von Computerprogrammen übersetzen läßt. Die Popularität von neuronalen Netzen oder Fuzzy Logik ist ein Zeichen für die Suche nach alternativen Berechnungsparadigmen, die Unschärfe und Ungenaugigkeiten menschlichen Denkens besser fassen läßt.

In der kognitiven Psychologie spiegelt sich dies: Während sie sich vor 100 Jahren vor allem mit schlußfolgernden Denken und Problemlösen beschäftigte, ist dies heute nur noch ein kleiner Teil der Forschung. Viel wichtiger sind bespielsweise Fragen der Repräsentation von Wissen und der Organisation des Gedächtnisses.

Menschliches Wissen und Denken beruht wesentlich auf gemachten Erfahrungen und deren Verarbeitung. Ebenso können KI-Systeme nicht auf fertig in Regeln gepackte Erkenntnisse beruhen, sondern muß Methoden entwicklen, die aus Beispielen lernen.

Sprache und KI
Natürliche Sprachverarbeitung ist das herausfordernste Problem auf dem Gebiet der KI und steht gleichzeitig für ihr größtes Versagen. So ist der selbstgestellte Test, ob ein Computer denken kann, der Turing Test, eigentlich ein Sprachverarbeitungsproblem. Wenn ein Computer sich im Gespräch nicht von einem Menschen unterscheiden läßt, so Turing, muß man ihm Intelligenz zubilligen.

Das erste sprachverarbeitende Programm, das über die KI-Gemeinde hinaus Aufsehen erregte, war Eliza von Joseph Weizenbaum, das einen Psychologen simuliert. Seine Fähigkeiten sind für den Laien beeindruckend, obwohl es auf einfachem Pattern Matching beruht und sich auf Fragen und ausweichende Reaktionen beschränkt.

Die Methoden der Sprachverarbeitungen sind immer noch auf dem Stand von Wittgensteins ,,Tractatus''. Die Bedeutung von Aussagen wird über das Frege'sche Kompositionalitätsprinzip erschlossen. Dies ergibt allerdings insofern Sinn, da heutige Forschungsziele sprachverarbeitende Systeme mit beschränkter Domäne sind. Wenn nur ein Sprachspiel gespielt wird, reduzieren sich viele Probleme der Semantik. Wenn beispielsweise in einem Zugauskunftssystem von einem ,,Zug'' die Rede ist, spielen Aspekte wie das Alter des Zuges, die Höchstgeschwindigkeit oder dessen Gestalt keine Rolle. Und es ist auch klar, daß es nicht um eine Modelleisenbahn, einen Windzug oder um die metaphorische Benutzung des Wortes geht. Es interessiert nur, wohin er fährt und wann.

Die meisten Forscher auf dem Gebiet der maschinellen Sprachverarbeitung sind sich darüber im klaren, daß für die absehbare Zukunft nur solche beschränkten Systeme möglich sind. So wird zuwenig auf komplexere Fragen der Psycholinguistik eingegangen. Der Erkenntisstand, wie der Mensch Sprache verarbeitet, ist ja auch noch sehr gering. Eine beliebte Argumentation ist zwar der Vergleich mit dem künstlichen Fliegen: Ein Flugzeug schlägt nicht mit seinen Flügeln, es wird von Düsentriebwerken angetrieben. Inwieweit künstliches Sprechen auch auf völlig anderen Prinzipien beruhen kann, ist jedoch eher fraglich: Ziel ist schließlich ein Sprachverhalten, das vom menschlichen ununterscheidbar sein soll.

Der Loebner Preis ist eine vereinfachende Form des Turing Tests, bei dem das Gespräch thematisch und zeitlich beschränkt ist. Daß ein Computerprogramm einen echten Turing Test besteht, ist aus heutiger Sicht utopisch. Es ist bezeichnend für den Stand der Forschung, daß das bisher erfolgreichste Programm, das am Loebner Preis teilnahm, vor allem wirr daherredete und damit seine Gesprächsteilnehmer täuschte.

Statistische Methoden
Der Begriff ,,Statistische Methoden'' umfaßt vielerlei. Klassische stochastische Ansätze wie Hidden Markov Models (HMM) kann man ebenso dazuzählen wie Neuronale Netze. Ihr Reiz liegt darin, daß umfangreiches Wissen nicht mehr deklarativ beschrieben werden muß, sondern mittels Training aus Beispieldaten gewonnen wird.

Eine verlockende Idee, jedoch werden die Möglichkeiten statistischer Methoden gerne überschätzt. So schreibt zum Beispiel David Magerman in seiner Doktorarbeit:

    I would have liked nothing more than to declare in my dissertation that linguists can be completely replaced by statistical analysis of corpora.

    Übersetzung:
    ,,Mir wäre nichts lieber gewesen als in meiner Dissertation zu erklären, daß Linguisten vollständig durch die statistische Analyse von Korpora ersetzt werden können.''

Es könnten hier noch weitere Zitate dieser Art genannt werden. Doch muß klar sein, daß statistische Methoden nur so gut sein können, wie ihr Rahmen ihnen vorgibt. Das Vorwissen, das man in ein solches Verfahren steckt, entscheidet über den Erfolg. Wird nichts vorgegeben, ist der Lösungsraum meist zu groß, um befriedigende Ergebnisse zu erhalten. So gesteht auch Magermann nach dem Abschluß seiner Arbeit ein:

    This error analysis leads me to conclude that linguistic input is crucial to natural language parsing...

    Übersetzung:
    ,,Diese Fehleranalyse führt mich zu der Schlußfolgerung, daß linguistische Eingaben entscheidend für das Parsing natürlicher Sprache ist.''

Es ist ebenso unsinnig wie unpraktikabel, völlig auf linguistisches Vorwissen zu verzichten. Warum sollten auch grundlegende Erkenntnisse aufwendig durch statistische Analysen gewonnen werden, wenn es diese schon gibt? Es ist meine Überzeugung, daß Systeme zur Verarbeitung natürlicher Sprache einen wichtige Schritt vorangebracht werden können, wenn statistische Methoden und linguistisches Wissen verbunden werden.

In der Erkennung gesprochener Sprache haben mittlerweile statistische Methoden klassische linguistische Ansätze abgelöst. Diese Arbeit ist Teil des Versuches, diesen Erfolg auf den Bereich der Syntax auszudehnen.


home | philosophy