philosophy Sprache und Computer
Diese Einführung umreißt den philosophischen und wissenschaftlichen Rahmen der Arbeit. Es wird auf die Entwicklung der Forschung auf dem Gebiet der Sprache und der KI hingewiesen und die Bedeutung statistischer Verfahren für maschinelle Sprachverarbeitung herausgestellt. Im letzten Abschnitt wird ein Überblick auf die folgenden Kapitel gegeben.
Sprache Auch entwickeln wir einen Großteil unseres Wissens über die Welt in Sprache. Über Jahrhunderte hinweg wurden philosophische und wissenschaftliche Ansichten in Form von Schriften und Büchern verbreitet und erhalten. Es ist daher nicht verwunderlich, daß in der Philosophie die Behauptung aufkam, daß Denken im Kern sprachlich ist. So schreibt Ludwig Wittgenstein im Tractatus Logico-Philosphicus: ,,Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt''. Descartes argumentierte, daß unser Denken auf Sprache beruht und Tiere, die nicht sprechen können, kein Bewußtsein haben. Neben dem aktiven Sprachgebrauch (sprechen, hören, lesen), reden wir ständig mit uns selbst. Dennet schreibt in seinem Buch ,,Consciousness Explained'', daß dieser innere Dialog uns erst über uns selbst klarwerden läßt. Erst wenn wir einen Gedanken in Worte fassen, können wir ihn wirklich verstehen. Unser Selbst ist nichts anderes als das Zentrum aller unserer Aussagen über uns Center of Narrative Gravity. Zwar erkennen wir heute zunehmend, daß die Rolle der Sprache wohl überschätzt und ein wesentlicher Teil unseres Denkens eben nicht sprachlich ist. Dennoch müssen wir zweifelsohne zugeben, daß Sprache wesentliche Aspekte unseres Denkens widerspiegelt. Sprache ist immer noch der wichtigste Schlüssel zu unserem Geist.
Kompositionalitätsprinzip Wörter bezeichnen Dinge in der Welt oder beschreiben, wie diese verknüpft werden können. Damit läßt sich die Bedeutung von Sätzen als Funktion seiner Wörter darstellen. Dies wird das Frege'sche Kompositionalitätsprinzip genannt: die Annahme, daß wir längere Texte dadurch verarbeiten können, indem wir sie immer mehr bis zu ihren Bestandteilen zerlegen. Obwohl dies ist eine hilfreiche Annahme für begrenzte Sprachsituationen ist, versagt sie bei einer vollständigen Betrachtung der Sprache. So lassen sich Wörter nicht klar atomar definieren, sondern haben eine eher vage, vielschichtige Bedeutung. Wittgenstein distanzierte sich somit in seinen späteren ,,Philosophischen Untersuchungen'' von seinen ursprünglichen Ansichten. Er erkennt, daß die Bedeutung eines Wortes entscheidend von dem jeweiligen {\em Sprachspiel}, von der jeweiligen Sprachsituation abhängt. Ähnliche Widersprüche zum Kompositionalitätsprinzip rufen Kontexteffekte, Metaphern und Sarkasmus hervor, wo sich die wörtliche Bedeutung von der tatsächlichen unterscheidet. Lakoff und Johnson argumentieren in dem Buch ,,Methaphors we live by'', daß natürliche Sprache von Grund auf metaphorisch organisiert ist. Je mehr wir über menschliche Sprache lernen, desto mehr Schwierigkeiten erkennen wir. Sprache ist voller Ungenauigkeiten, Unregelmäßigkeiten und Ausnahmen. Es scheint keine Regel zu geben, die nicht auch gebrochen werden kann. Nur eines ist klar: Unser Gehirn verarbeitet Sprache anders als wir es uns bislang vorstellen können.
Künstliche Intelligenz Die Anfangszeit der KI war gekennzeichnet von heute kaum mehr nachvollziehbarer Euphorie. 1958 machte beispielsweise Herbert Simon folgende Vorhersagen für das Jahr 1968:
Übersetzung: Heute, fast vierzig Jahre später, ist keines dieser Ziele erreicht. KI Forschung hat vielerorts das Image einer Wissenschaft, die ihre Versprechen nicht einhalten kann. Teile der KI haben sich daher vom ursprünglichen Ziel verabschiedet und widmen sich der Entwicklung von sogenannten KI-Methoden und deren Anwendung in mehr kommerziellen Produkten. Andererseits ist der Erfolg von Computern insgesamt umbestritten. Es gibt fast keinen Bereich der Gesellschaft, den die Informationsrevolution unberührt gelassen hat. Software erledigt Arbeitsvorgänge, die traditionell von Menschen ausgeführt wurden, und eröffnet neue Möglichkeiten. Der Computer zählt zweifelslos zu den wichtigsten Erfindungen der Moderne. Diese herausragenden Leistungen der maschinellen Datenverarbeitung stoßen sehr schnell an Grenzen, wenn intelligenterer Umgang mit Informationen verlangt ist. Die Schwierigkeiten der KI haben klar aufgezeigt, daß sich menschliches Denken nicht einfach in die Regelsprache von Computerprogrammen übersetzen läßt. Die Popularität von neuronalen Netzen oder Fuzzy Logik ist ein Zeichen für die Suche nach alternativen Berechnungsparadigmen, die Unschärfe und Ungenaugigkeiten menschlichen Denkens besser fassen läßt. In der kognitiven Psychologie spiegelt sich dies: Während sie sich vor 100 Jahren vor allem mit schlußfolgernden Denken und Problemlösen beschäftigte, ist dies heute nur noch ein kleiner Teil der Forschung. Viel wichtiger sind bespielsweise Fragen der Repräsentation von Wissen und der Organisation des Gedächtnisses. Menschliches Wissen und Denken beruht wesentlich auf gemachten Erfahrungen und deren Verarbeitung. Ebenso können KI-Systeme nicht auf fertig in Regeln gepackte Erkenntnisse beruhen, sondern muß Methoden entwicklen, die aus Beispielen lernen.
Sprache und KI Das erste sprachverarbeitende Programm, das über die KI-Gemeinde hinaus Aufsehen erregte, war Eliza von Joseph Weizenbaum, das einen Psychologen simuliert. Seine Fähigkeiten sind für den Laien beeindruckend, obwohl es auf einfachem Pattern Matching beruht und sich auf Fragen und ausweichende Reaktionen beschränkt. Die Methoden der Sprachverarbeitungen sind immer noch auf dem Stand von Wittgensteins ,,Tractatus''. Die Bedeutung von Aussagen wird über das Frege'sche Kompositionalitätsprinzip erschlossen. Dies ergibt allerdings insofern Sinn, da heutige Forschungsziele sprachverarbeitende Systeme mit beschränkter Domäne sind. Wenn nur ein Sprachspiel gespielt wird, reduzieren sich viele Probleme der Semantik. Wenn beispielsweise in einem Zugauskunftssystem von einem ,,Zug'' die Rede ist, spielen Aspekte wie das Alter des Zuges, die Höchstgeschwindigkeit oder dessen Gestalt keine Rolle. Und es ist auch klar, daß es nicht um eine Modelleisenbahn, einen Windzug oder um die metaphorische Benutzung des Wortes geht. Es interessiert nur, wohin er fährt und wann. Die meisten Forscher auf dem Gebiet der maschinellen Sprachverarbeitung sind sich darüber im klaren, daß für die absehbare Zukunft nur solche beschränkten Systeme möglich sind. So wird zuwenig auf komplexere Fragen der Psycholinguistik eingegangen. Der Erkenntisstand, wie der Mensch Sprache verarbeitet, ist ja auch noch sehr gering. Eine beliebte Argumentation ist zwar der Vergleich mit dem künstlichen Fliegen: Ein Flugzeug schlägt nicht mit seinen Flügeln, es wird von Düsentriebwerken angetrieben. Inwieweit künstliches Sprechen auch auf völlig anderen Prinzipien beruhen kann, ist jedoch eher fraglich: Ziel ist schließlich ein Sprachverhalten, das vom menschlichen ununterscheidbar sein soll. Der Loebner Preis ist eine vereinfachende Form des Turing Tests, bei dem das Gespräch thematisch und zeitlich beschränkt ist. Daß ein Computerprogramm einen echten Turing Test besteht, ist aus heutiger Sicht utopisch. Es ist bezeichnend für den Stand der Forschung, daß das bisher erfolgreichste Programm, das am Loebner Preis teilnahm, vor allem wirr daherredete und damit seine Gesprächsteilnehmer täuschte.
Statistische Methoden Eine verlockende Idee, jedoch werden die Möglichkeiten statistischer Methoden gerne überschätzt. So schreibt zum Beispiel David Magerman in seiner Doktorarbeit:
Übersetzung: Es könnten hier noch weitere Zitate dieser Art genannt werden. Doch muß klar sein, daß statistische Methoden nur so gut sein können, wie ihr Rahmen ihnen vorgibt. Das Vorwissen, das man in ein solches Verfahren steckt, entscheidet über den Erfolg. Wird nichts vorgegeben, ist der Lösungsraum meist zu groß, um befriedigende Ergebnisse zu erhalten. So gesteht auch Magermann nach dem Abschluß seiner Arbeit ein:
Übersetzung: Es ist ebenso unsinnig wie unpraktikabel, völlig auf linguistisches Vorwissen zu verzichten. Warum sollten auch grundlegende Erkenntnisse aufwendig durch statistische Analysen gewonnen werden, wenn es diese schon gibt? Es ist meine Überzeugung, daß Systeme zur Verarbeitung natürlicher Sprache einen wichtige Schritt vorangebracht werden können, wenn statistische Methoden und linguistisches Wissen verbunden werden. In der Erkennung gesprochener Sprache haben mittlerweile statistische Methoden klassische linguistische Ansätze abgelöst. Diese Arbeit ist Teil des Versuches, diesen Erfolg auf den Bereich der Syntax auszudehnen. |