Artikel pedia
| Home | Kontakt | Artikel einreichen | Oberseite 50 artikel | Oberseite 50 autors
 
 


  1

I N H A L T S V E R Z E I C H N I S    Einleitung 1         1. Künstliche Intelligenz – Grenzen und Möglichkeiten 4     1.1. Begriffsbestimmung Intelligenz – künstliche Intelligenz auf der Basis des symbolverarbeitenden Ansatzes 4   Was ist Intelligenz – Eine Dimensionierung 4 Auswertung und Definition 7 Was ist künstliche Intelligenz? – Der symbolverarbeitende Ansatz 7 Der Turing-Test 9 Kritische Betrachtung hinsichtlich einer Definition 11     Grenzen der Künstlichen Intelligenz 13   Die biologische Annahme 14 Die erkenntnistheoretische Annahme 15 Die ontologische Annahme 18 Zusammenfassende Übersicht über die Grenzen der KI 20     1.3. Möglichkeiten der Künstlichen Intelligenz 22   1.

3.1 Expertensysteme 22 1.3.2. Funktionsweise von Expertensystemen 23 1.3.

3. Anwendung von Expertensystemen 29 1.3.4. Bewertung der KI in Bezug auf die Implementierung in ein Lernprogramm 31     Lernprogramme – Lerntheoretische Positionierung 34     2.1.

Behavioristische Lerntheorien und Instruktionssysteme 34     Behavioristische Lerntheorien 34   Klassisches Konditionieren nach PAWLOW 35 Instrumentelles Lernen nach SKINNER 36     Behavioristische Lernprogramme 38   Programmierte Instruktion 39 Autorensysteme 40 Courseware 41       Kognitivistische Lerntheorien und Tutoren 43     Kognitivistische Lerntheorien 43 Regellernen nach GAGNE 44 Sprachliches Lernen nach AUSUBEL 45     Kognitivistische Lernprogramme 47   Instructional design – Lehrerorientierte Systeme 48 Instructional design – Lernerorientierte Systeme 51 Intelligente Tutorielle Systeme (ITS) 52       Konstruktivistische Lerntheorien und entdeckendes Lernen im Hypermedia 57     Konstruktivistische Lerntheorien 57   PIAGETS Theorie der genetischen Epistemologie 57 BRUNERS pädagogisch – methodisches Konzept auf der Basis der PIAGETschen Theorie 59     Konstruktivistische Lernprogramme 60   Hypertext – Hypermedia 61 Simulationen 68 Gesamtüberblick über alle vorgestellt Lernprogramme und aktuelle Entwicklungen 70             Bewertung von Computerlernprogrammen hinsichtlich ihrer Implementierung in pädagogische Kontexte 75    3.1. Anforderung an ein Strukturprofil von Computerlernprogrammen zur Förderung von Lehr- und Lernprozessen 76       KI-Anforderungen 77 Diagnosekomponente 77 Problemlösungskomponente 77 Interaktionskomponente 78   Lerntheoretische Anforderungen 79 Drill&Practice-Komponente 79 Tutorielle Komponente 80 Forschend-entdeckende Komponente 81   Designtheoretische Anforderungen 81 Figur – Grund Gesetz 82 Gesetz der durchgehenden Linie 82 Symmetrie – Gleichgewicht Gesetz 82 Prägnanz 83 Teile und Ganzes 84 Gruppen und Grenzen 84   Zusammenfassung aller beschriebenen Strukturkomponenten 84   Auswahl der zu bewertenden Lernprogramme 85       Bewertung des Lernprogramms „PHYSIKUS“ 87       Beschreibung des Lernprogramms 87 Die Spielidee 87 Beschreibung des Interface des Spielteils 88 Beschreibung des Interface des Lernteils 88   Verknüpfung der Strukturelemente und ihre Bewertung unter Berücksichtigung der KI-Anforderungen und lern- und design- theoretischer Gesichtspunkte 89 Bewertung unter Berücksichtigung der KI-Anforderungen 89 Bewertung unter Berücksichtigung der lerntheoretischen Anforderungen 89 Bewertung unter Berücksichtigung der designtheoretischen Anforderungen 92   Zusammenfassende Bewertung des Lernspiels „PHYSIKUS“ 92         Bewertung eines WebBasedTraining (WBT): https://www.learnetix.de 95       Erläuterung einzelner Menüs des Lernservers 95 Beschreibung des Interface der Navigationszeile 96 Beschreibung des Interface eines Lernguides 96   Verknüpfung der Strukturelemente und ihre Bewertung unter Berücksichtigung der KI-Anforderungen und lern- und designtheoretischer Gesichtspunkte 97 Bewertung unter Berücksichtigung der KI-Anforderungen 97 Bewertung unter Berücksichtigung der lerntheoretischen Anforderungen 98 Ein Einschub: Vor- und Nachteile des Chats bezogen auf die Funktionsweise einer tutoriellen Komponente 99 Bewertung unter Berücksichtigung der designtheoretischen Anforderungen 100   Zusammenfassende Bewertung des Lernservers: learnetix.de 101       Abschließender Vergleich der analysierten Lernprogramme 103       4.


Schlussbetrachtung 106     Literaturverzeichnis I-V       Anhang Abbildung 1-9        Einleitung  „Life is xerox, we are just a copy“ (Graffiti an der Berliner Mauer, Januar 2000)   Virtuelle Kommunikationswelten, On- und Offline Wirklichkeiten, Spielen und Lernen im Cyberspace – ein 18jähriger zaubert Fraktale auf den Bildschirm, die für ihn eine Grenzwelt zwischen Kunst und Mathematik symbolisieren. Die Herstellung und das Agieren in dieser Welt erlaubt ihm, sich abwechselnd als ‚Wissenschaftsmensch‘, und als ‚Gefühlsmensch‘ zu inszenieren. Ein anderer Jugendlicher jongliert in selbstprogrammierten Computerspielen mit verschiedenen Rollen; mal ist er Kleriker, mal Magier, mal Druide, mal Lehrer, mal wieder Programmierer. (Vgl. Schlachner, 1996:S. 17) Mit der heutigen Jugend steht uns die erste Cybergeneration gegenüber, postuliert KELLNER (1997).

Das Gegenüber sind wir, die älter als 25jährigen dieser Erde, denen zwar alle Erkenntnistüren noch offenstehen, deren Grundwirklichkeit jedoch dreidimensional bleiben wird. Alles andere muss mehr oder weniger mühevoll erlernt werden. Für die Hineingewachsenen sieht das anders aus: Wirklichkeit ist für sie ein Kosmos, in dem sich physische und fiktive Areale gleichrangig gegenüberstehen. Dementsprechend nehmen sich die Mitakteure auch als unmittelbar anwesend wahr, verbunden mit einem Gefühl von Nähe und Gleichzeitigkeit. Das klassische Raum-Zeit-Gefühl scheint in den virtuellen Zusatzräumen gleichsam außer Kraft gesetzt. (Vgl.

Vogelsang 2000) Dennoch sieht VOGELSANG die heutigen Kids als „kompetente Pendler zwischen medialen und realen Welten“ (Vogelsang 2000:S. 251). Kompetenter als ihre Lehrer zumal. Und obwohl die Realität der pädagogischen Reflexion noch weiter als sonst Voraus ist, zieht das world wide web jetzt per Regierungsdekret selbst in die letzte Dorfschule ein. Da klingt die Überlegung des ehemaligen Bundespräsidenten ROMAN HERZOG, der in seiner Rede „Megathema Bildung – vom Reden zum Handeln“ auch vom Einsatz der neuen Medien eine „Revolution in den Klassenzimmern“ erwartet, schon nachdenklicher: „Wir müssen die Pädagogik für das Informationszeitalter aber erst noch erfinden“ (Herzog, 1999: S.20).

Innerhalb dieser pädagogischen Suche nach der Bedeutung der neuen Medien für die Schulen und Hochschulen und nach effektiven, d.h. bildungsfördernden Nutzungsmöglichkeiten und –kriterien, möchte die vorliegende Diplomarbeit einen bescheidenen Beitrag leisten. Durch einen E-mail-Kontakt zur TU-Chemnitz konnten Ergebnisse aus einem aktuellen Forschungsprojekt mit dem Titel „Umgang mit neuen Medien“ mit in diese Arbeit einbezogen werden. Im Bereich der Linguistik hat sich eine Forschergruppe mit der „sprachlichen Aneignung von Computermedien“ (Kallmeier, 1999) beschäftigt. Hierbei wurden Gespräche aufgezeichnet, die entstanden sind aufgrund eines Computerproblems.

„Indem die Beteiligten in solchen Kontexten miteinander sprechen, so unsere These, bearbeiten sie zum einen die unmittelbar anstehenden Probleme; zum anderen geben sie zu erkennen und gleichen auch ab, was der Computer für sie ist, wie sie ihn sehen.“ (Kallmeier, 1999) Dabei wurde festgestellt, dass Benutzer ihrem Computer als „nur begrenzt zu beeinflussendes Gegenüber entgegentreten.“ (Kallmeier, 1999) Vielfach fühlen sie sich dieser Technik ausgeliefert. Die Lösung sollen sog. Intelligente Schnittstellen bringen, die nutzerspezifisch arbeiten. Gerade die transskribierten Gespräche über den Computer lassen vermuten, dass nicht allen Jugendlichen und jungen Erwachsenen die ‚Trennung zwischen den Welten‘ so mühelos gelingt, wie VOGELSANG vermutet.

Oft hat man dem Computer Intelligenz unterstellt, was dazu führt, dass er nahezu personalisiert wird: „ Ich will die Datei speichern, da sagt der zu mir: “Datei wurde nicht gespeichert“ – na Klasse!“ (Kallmeier, 1999) Wie intelligent sind Computer wirklich? Welche Rolle können und sollten sie in unserem Bildungsalltag spielen?   Nach dem Lesen des Titels dieser Arbeit, wird man einen Text erwarten, der eine graue Endzeitstimmung nachzeichnet, in der die Maschine herrscht und dem Menschen seine ureigenste Fähigkeit, das zielgerichtete Denken, streitig macht. Von einer solchen Illusion ist diese Arbeit jedoch weit entfernt. Es wird nicht darum gehen, den Lehrer durch einen maschinellen, intelligenten Tutor zu ersetzten, sondern es wird die Frage gestellt, ob durch den Einsatz von KI-Komponenten die Lehrkompetenz eines Lernprogrammes gesteigert würde. Hierbei soll der Begriff „künstliche Intelligenz“ nach einer zu entwickelnden Definition auf den Prüfstand gestellt werden. Welche Erfolge wurden in den letzten Jahrzehnten, seit Beginn dieser neuen Forschungsrichtung, erzielt, welche programmiertechnischen Probleme wurden bis heute nicht gelöst. Mit Hilfe eines philosophisch-theoretischen Ansatzes sollen die Grenzen der KI erläutert werden, wobei zwischen prinzipiellen Grenzen und momentanem technischen Unvermögen unterschieden werden soll.

Die Möglichkeiten der KI sollen anhand von Expertensystemen dargestellt werden, die als Inferenzsysteme die Erfolge der symbolischen KI-Forschung wiedergeben.   Durch die Bewertung der KI in Bezug auf die Implementierung in ein Computerlernprogramm soll ein Bogen zum zweiten Kapitel geschaffen werden, das sich, auf der Basis lerntheoretischer Erkenntnisse, mit der Entwicklung von Lernprogrammen beschäftigt. In drei Unterpunkten werden in historisch-chronologischer Reihenfolge die Lernprogramme ihren zugehörigen Lerntheorien gegenübergestellt. So ist es möglich, die einzelnen Lernprogramme voneinander abzugrenzen, da heutige Lernsysteme nicht mehr eindeutig einer Lerntheorie zuzuordnen sind, sondern sich häufig unterschiedliche lerntheoretische Erkenntnisse in einem breiten Lernangebot zusammenfinden.   Im dritten Kapitel soll vor dem Hintergrund der übermächtig gewordenen Informationsfülle und auch des -bedarfs des Internets ein Bewertungskatalog aufgenommen werden, mit dem es möglich ist Lernprogramme zu bewerten. Wenn SCHULMEISTER einen Rückgriff auf die Methoden des Programmierten Unterrichts in im Internet angebotenen Lernprogrammen beklagt, wird deutlich, wie wichtig eine solche Evaluation von Lernprogrammen wird, um dem Benutzer Entscheidungskriterien für die Wahl eines Lernprogramms an die Hand zu geben.

In dieser Arbeit sollen zwei Lernprogramme aus sehr unterschiedlichen Lernumgebungen bewertet werden, wobei die lerntheoretischen Postulate des zweiten Kapitels im Vordergrund stehen werden. In einem vierten und abschließenden Kapitel soll die Nutzbarkeit der KI-Forschung für Lernprogramme zusammenfassend betrachtet werden.        1. Künstliche Intelligenz – Grenzen und Möglichkeiten   Begriffsbestimmung Intelligenz – künstliche Intelligenz auf der Basis des symbolverarbeitenden Ansatzes  AHRWEILER unterscheidet zwei Bearbeitungsstrategien in der KI-Forschung. Den symbolverarbeitenden Ansatz und den konnektionistischen Ansatz. Diese unterschiedlichen Ansätze haben „für kognitionswissenschaftliche Fragestellungen einerseits und .

.. verhandelte Stellungsnahmen zu erkenntnistheoretischen Positionen andererseits...“ (Ahrweiler 1995: S.

22) verschiedenartige Auswirkungen. Deshalb wurden die Ausführungen ausdrücklich auf den symbolverarbeitenden Ansatz reduziert, um einer Verflechtung zweier verschiedener Theorien aus dem Weg zu gehen.   Was ist Intelligenz – Eine Dimensionierung Intelligenz ist „die Fähigkeit zu problemlösendem, einsichtigem Verhalten.“ (Cruse/Dean/Ritter, 1998: S. 9) Der Brockhaus definiert Intelligenz als Klugheit, Fähigkeit der Auffassungsgabe, des Begreifens, Urteilens; geistige Anpassungsfähigkeit an neue Aufgaben. Während Meyers enzyklopädisches Lexikon Intelligenz als die Bewältigung neuartiger Situationen durch problemlösendes Verhalten versteht.

SPÖRL umschreibt den Begriff der Intelligenz wie folgt: „Mit Intelligenz meine ich das Vermögen eines Lebewesens oder eines Apparates, Informationen von außen, Beobachtungen, Erfahrungen zu ordnen, Zusammengehörigkeiten zu entdecken, die Informationen damit auszuwerten, das alles, um auf diese Weise zu abstrahieren, um sie miteinander verknüpfen zu können.“ Bei diesen vielen unterschiedlichen Definitionsansätzen lässt sich jedoch eine Gemeinsamkeit feststellen: Die meisten Definitionen setzten das Vorhandensein einer Ratio voraus, in dieser erschöpft sich jedoch bei weitem nicht der Begriff der Intelligenz. DREYFUS und DREYFUS bemerken hierzu: „Zur Intelligenz gehört mehr als nur kalkulierbarer Verstand.“ (Dreyfus/Dreyfus, 1988: S.61) Sie unterscheiden irrationales, rationales und arationales Handeln. Wobei ersteres im Widerspruch zur Logik und zum Verstand steht, die Rationalität der Vernunft folgt und Arationalität „nennen wir .

.. Handlungen, die ohne bewusstes, analytisches Zerlegen und Rekombinieren auskommen.“ (Dreyfus/Dreyfus, 1988: S.62)   Da der Begriff der Intelligenz so viele unterschiedliche Facetten menschlicher Eigenschaften anspricht, haben sich in den vergangenen Jahrzehnten mehrere Forscher auf eine Dimensionierung von Intelligenz eingelassen. Einige dieser Versuche sollen an dieser Stelle wiedergegeben werden, um den Begriff in möglichst breiter Form zu charakterisieren.

  Bei CRUSE, DEAN und RITTER wird die Frage gestellt, ob „Intelligenz eine einheitliche, unteilbare Fähigkeit“ ist, oder ob „sie die Summe vieler Einzelfähigkeiten“ (Cruse/Dean/Ritter, 1998: S.16) darstellt. Die Erkenntnisse der Neurophysiologie hat den Forschern, die sich mit Intelligenz beschäftigen, diese Trennung schon fast in den Mund gelegt, sie gehen nämlich davon aus, dass unterschiedlichen Bereichen unseres Gehirns unterschiedliche Aufgaben zukommen. Auch die drei oben genannten Autoren kommen zu dem Schluss, den Begriff Intelligenz zu dimensionieren: 1. „Ein intelligentes System sollte autonom sein (wörtlich: sich selbst das Gesetz, die Regel gebend)..

.“. Das System sollte hierbei sein „Verhalten weitestgehend selbst bestimmen.“ (Cruse/Dean/Ritter, 1998: S.23) Dies erweist sich jedoch in vielen Fällen als schwer trennbar, ob das System sich selbst bestimmt, oder ob es von außen bestimmt wird. Dennoch sollte es prinzipiell eine Unterscheidung zwischen eigen- und fremdbestimmtem Verhalten treffen können.

2. „Ein intelligentes System sollte Intentionen besitzen.“ (Cruse/Dean/Ritter, 1998: S.23) Es sollte also in der Lage sein, „sich selbst die Ziele seines Verhaltens auszuwählen.“ (Cruse/Dean/Ritter, 1998: S.23) Auch wenn, wie schon oben beschrieben, das Wort „selbst“ einige Probleme aufwirft.

3. „Ein intelligentes System sollte sich anpassen und aus Erfahrungen lernen können.“ (Cruse/Dean/Ritter, 1998: S.24) Es sollte auf die Veränderungen seiner Umwelt reagieren können, wobei vorausgesetzt wird, dass das System selbst in der Lage ist, sich zu verändern. Es dürfen also keine starren Strukturen vorliegen, sondern es muss in einem dialogischen Verhältnis zu seiner Umwelt stehen. In einem ähnlichen Zusammenhang schreiben DEAN, HOLK und RITTER, dass ein intelligentes „System .

.. offen sein“ (Cruse/Dean/Ritter, 1998: S.27) sollte. Es darf also nicht nur in einem begrenzten Raum, z.B.

einem Labor überlebensfähig sein, sondern muss auch mit unbekannten Situationen zurecht kommen. 4. „Eine wichtige Eigenschaft von Intelligenz besteht auch darin, den Erfolg eines Verhaltens beurteilen zu können.“ (Cruse/Dean/Ritter, 1998: S.24) Die drei Autoren machen dies am Beispiel der Fliege deutlich, die selbst nach mehreren Versuchen immer wieder gegen die Fensterscheibe fliegt und damit den Misserfolg ihres Verhaltens nicht reflektieren kann. Ein intelligentes System sollte zumindest nach dem Prinzip von „Trial and error“ zu einer alternativen Problemlösung gelangen, um „Sackgassen“ zu vermeiden, die wie im Beispiel der Fliege lebensbedrohlich enden können.

5. „Eine weitere wichtige Eigenschaft ist die Fähigkeit zur Generalisierung.“ (Cruse/Dean/Ritter, 1998: S.24) Der Begriff der Generalisierung wird hier in zweifacher Hinsicht gebraucht. Zum einen sollte das System über eine gewisse „Fehlertoleranz“ verfügen, die es ermöglicht, so noch nicht wahrgenommene Dinge einzugliedern. Generalisierung bedeutet also hier Ähnlichkeiten zu erkennen, um sie in schon Bekanntes einzufügen.

Auf der anderen Seite sollte ein intelligentes System die Fähigkeit der Generalisierung dazu benutzen können, Kategorien zu bilden, um Abstraktion zu ermöglichen. Ein Beispiel soll den Unterschied der verschiedenartigen Anforderungen an Generalisierung näher erläutern: Durch das Erkennen unterschiedlicher Farben ist der Mensch in der Lage Rottöne und Blautöne zu kategorisierten. Er muss aber auf der anderen Seite auch in der Lage sein, ein gesehenes Orange als einen modifizierten Rotton zu erkennen. 6. Eine andere Eigenschaft von Intelligenz „ist die Fähigkeit, zwischen Alternativen entscheiden zu können.“ (Cruse/Dean/Ritter, 1998: S.

25) Meistens fällt die Wahl zwischen zwei gleichwertigen Alternativen sehr schwer. Aus diesem Grund setzen intelligente Systeme sogenannte Kostenfunktionen oder allgemeine Regeln ein, um eine Entscheidung treffen zu können, z.B. immer der kürzeste Weg oder die Lösung, „die die wenigste Energie oder die geringste Zeit verbraucht.“ (Cruse/Dean/Ritter, 1998: S.26) 7.

„Die vielleicht wichtigste Bedingung für das Auftreten von Intelligenz besteht in der Fähigkeit, Änderungen der Umwelt, z.B. als Folge eigener Aktivität vorhersagen zu können.“ (Cruse/Dean/Ritter, 1998: S.27) Hierbei unterstellen die drei Autoren dem System schon so etwas wie Bewusstsein, weil es sich um ein selbstreferentielles System handelt, das was MATURANA und VARELA als Autopoieses beschreiben.     Auswertung und Definition „Ein System ist also dann intelligent, wenn es in einer gegebenen und sich verändernden Umwelt die Chancen seiner Selbsterhaltung im Vergleich zu seinem aktuellen Zustand verbessern kann.

“ (Cruse/Dean/Ritter, 1998: S.27)   CRUSE, DEAN und RITTER haben sich in ihrer abschließenden Definition auf eine eher biologische Sichtweise gestützt. So wird das Ziel der Selbsterhaltung zum Kriterium, das den Dimensionen von Intelligenz ihre Position zuweist und sie untereinander verbindet. Diese obengenannte Definition sollte also in einem Zusammenhang zu der Dimensionierung gesehen werden, um eine für diese Arbeit zufriedenstellende Begriffsbestimmung für den Terminus „Intelligenz“ festzulegen.   CRUSE, DEAN und RITTER haben sich bemüht, den Begriff Intelligenz immer auf Systeme zu beziehen, um zu verdeutlichen, dass diese Eigenschaft nicht nur dem Menschen zukommt, sondern durchaus auch Tieren, wenn nicht sogar Maschinen. Für eine Arbeit über künstliche Intelligenz ist solch ein Definitionsansatz förderlich, da dadurch nicht im Vorhinein ausgeschlossen wird, dass auch Digitalcomputer intelligent sein können.

    Was ist künstliche Intelligenz? – Der symbolverarbeitende Ansatz Der symbolverarbeitende Ansatz ist der ältere von beiden oben genannten Ansätzen (vgl. Kap. 1.1.) in der KI-Forschung. Nach AHRWEILER (Ahrweiler 1995: S.

22) sollen hierbei die einzelnen Denkschritte des Menschen direkt „in die Sprache eines Computerprogramms übersetzt“ werden. Nach NEWELL und SIMON sind „kognitive Prozesse Transformation von Symbolstrukturen. Symbolstrukturen wiederum sind aus elementaren Symbolen als bedeutungstragende Einheiten gemäß syntaktischer Regeln zusammengesetzt.“ In diesem Zusammenhang sei die These von NEWELL und SIMON eine hinreichende Voraussetzung von intelligentem Verhalten (Strube, 1993: S.304). „Die Fähigkeiten, die diese Leistungen [z.

B. Verknüpfung von Symbolketten] ermöglichen“, wollen wir „auf der funktionellen Ebene mit rationaler Intelligenz bezeichnen.“ (Cruse/Dean/ Ritter, 1998: S.10) Der Begriff der rationalen Intelligenz übernimmt auch für die Definition der künstlichen Intelligenz eine wichtige Funktion. Digitalcomputer sind symbolverarbeitende Systeme, die den Gesetzen der Logik folgen, die wiederum auf der Ratio fußen. An dieser sehr eingeschränkten Definition von künstlicher Intelligenz liegt das Problem.

Ist ein System wirklich als intelligent zu bezeichnen, wenn es sich nur auf künstliche Problemstellungen beschränkt? Diese Frage jedoch soll Gegenstand der Diskussion über Grenzen und Möglichkeiten künstlicher Intelligenz sein. (vgl. Kap. 1.2./1.

3.)  Ein großer Bereich der KI-Forschung ist die Cognitive Science, die den menschlichen Geist und die Materie miteinander verbindet. Sie beschäftigt sich mit Fragen wie „Gibt es Kategorien, die menschliches und maschinelles Denken a priori beschränken?“ oder „Wie funktioniert die biologische Informationsverarbeitung?“ (Bibel/u.a., 1987: S. 5) Es sei hier nur beispielhaft auf die Ausführungen zu den Grenzen der KI hingewiesen, denn auch damit beschäftigen sich die Cognitive Science Forscher.

Die Ziele der KI-Forschung sind einerseits „to construct computer programs which exhibit behavior that we call “intelligent behavior” when we observe it in human beings“, andererseits will man durch die Entwicklung von Simulationsmodellen natürliche Kognitionsprozesse besser verstehen lernen. In diesen Definitionsansatz, künstliche Intelligenz möge menschliche Intelligenz simulieren, reiht sich auch der nun folgende Turing-Test ein, der dann als erfolgreich bezeichnet werden darf, wenn ein Mensch während einer Konversation den Unterschied zwischen einer Maschine und einem Menschen nicht mehr wahrnehmen kann.             Der Turing – Test Die Ausgangsfrage, die Turing gestellt hatte war, ob Maschinen denken können, bzw. in der Lage sind einen Menschen erfolgreich zu imitieren. Im Folgenden soll sein Experiment beschrieben werden, um daran eine kritische Diskussion anzuschließen.   „Der Gedanke besteht darin, einen Menschen vor ein einfaches Computerterminal zu setzten, so dass er mit Hilfe von Tastatur und Bildschirm Fragen an die Maschine stellen und Antworten von ihr erhalten kann.

Der Versuchsperson wird dabei mitgeteilt, dass ihr Terminal in verschiedenen Sitzungen entweder mit einem Computer oder mit einem Terminal verbunden ist, das gleichfalls von einem Menschen bedient wird. Die Aufgabe des Beobachters besteht darin, im Laufe dieser Unterhaltung herauszufinden, ob sein jeweiliges Gegenüber nun ein Mensch oder eine Maschine ist. Turing fordert, dass ein künstliches System dann als wirklich intelligent bezeichnet werden muss, wenn der menschliche Beobachter diesen Unterschied nicht mehr eindeutig zu treffen vermag.“ (Cruse/Dean/Ritter, 1998: S.13)   Die Beantwortung der Frage, ob durch dieses Experiment erfolgreich der Nachweis geführt wurde, dass Maschinen denken können, verbleibt der sich nun anschließenden Diskussion.   Turing setzt durch die Formulierung seines Experimentes voraus, dass Intelligenz nur über das Verhalten messbar ist.

Wobei der Begriff messbar hier eher die Bedeutung von empfindbar hat. So wird das Experiment nicht eindeutiger, sondern eher beliebiger. Der Anspruch, der diesem Test zugrunde liegt, ist jedoch nicht zu vernachlässigen. „Nicht das Verhalten an sich, sondern Verhalten im Kontext einer beliebigen Umwelt bestimmen die Bewertung der Intelligenz.“ (Cruse/Dean/Ritter, 1998: S.21) Die „beliebigen Umwelten“ sind in diesem Versuch die verschiedenen Gesprächsthemen, zu denen sich der Computer äußern kann und auf der anderen Seite die unterschiedlichen Versuchspersonen.

Die von CRUSE, DEAN und RITTER formulierten Anforderungen an ein intelligentes System sind also erfüllt. Wie aber die folgenden Ausführungen zeigen werden, könnte der Turing-Test mit sehr zweifelhaften Tricks bestückt werden, um die Maschine intelligent erscheinen zu lassen.   Das erste sich stellende Problem ist die Voreingenommenheit des Menschen gegenüber einem Computer. Während die Versuchsperson einem Computer vorzugsweise unterstellt, rational zu handeln, unterstellt sie einer menschlichen Interaktion vielmehr Emotionalität. Eine falsche Antwort wird also eher mit den Verhaltensweisen eines Menschen verknüpft, als mit denen eines Computers. So ist man mit der einfachen Einführung eines Zufallgenerators in der Lage, auch dem Computer eine falsche Antwort zu entlocken, die man eigentlich nur von einem Menschen erwarten würde.

Der Einsatz eines solchen Zufallgenerators jedoch birgt in keiner Weise intelligentes Verhalten. (vgl. Cruse/ Dean/Ritter, 1998: S.13ff.)   TURING war eine klare Trennung zwischen physischen und geistigen Tätigkeiten sehr wichtig. Deshalb bevorzugte er in seinem Experiment den schriftlichen Dialog.

Das Ziel, menschliche Verhaltensweisen nachzuahmen, wäre in diesem Gedankenexperiment gelungen, dennoch ist dadurch nicht bewiesen, dass Maschinen denken können. Unterstützen möchte ich diese Behauptung mit den Ausführungen von DREYFUS und DREYFUS über das von WEIZENBAUM entwickelte Interaktionsprogramm ELIZA. Das Programm war in der Lage ähnlich einem Non-direktiven Therapeuten, die Aussagen seines Gegenübers zu spiegeln bzw. in eine Frage umzuwandeln. Die Menschen, die versuchsweise mit diesem Programm interagierten, hatten wie in TURINGS Gedankenexperiment das Gefühl, mit einem realen Therapeuten zu „sprechen“. DREYFUS und DREYFUS machten jedoch mit diesem Programm folgende Erfahrung: „.

..als wir eingaben „ich bin glücklich“ und uns anschließend korrigierten: „Nein, in gehobener Stimmung.“ lieferte ELIZA die Bemerkung: „Seien sie doch nicht so negativ.“ Warum das? Weil es darauf programmiert war, immer, wenn ein „Nein“ eingegeben wurde, mit diesem Tadel zu reagieren.“ (Dreyfus/Dreyfus, 1988: S.

104) Das heißt, das Ziel TURINGS, einen Menschen nachzuahmen, hat ELIZA erfolgreich gemeistert, dennoch hat WEIZENBAUM kein intelligentes Programm konstruiert, denn dann hätte das Programm den Inhalt der Frage verstanden und hätte nicht nur auf einzelne Reizwörter mit Hilfe von Regeln reagiert. Nach KLIMSA und ISSING ist ein Computer nicht in der Lage eine Kommunikation zu führen. (vgl.Klimsa, Issing, 1995: S.347) Insofern wird auch die Turingmaschine nicht verstehen können. Die Imitation eines Menschen ist in beiden Fällen (ELIZA/ Turingmaschine) von Außen betrachtet gelungen, die Abläufe im Inneren unterscheiden jedoch den Computer vom Menschen außerordentlich.

    Kritische Betrachtung hinsichtlich einer Definition Was verbleibt also vom Turing-Test für eine Definition? Der Turing-Test erklärt nicht, was künstliche Intelligenz ist, sondern womit künstliche Intelligenz sich beschäftigt. Auch NEBENDAHL beschäftigt sich nicht mit der Erklärung von KI, sondern mit dessen Forschungsinhalt: „Artificial Intelligence (A.I.) is the study of how to make computers do things at which, at the moment, people are better.“ (Nebendahl, 1987: S.16) Schon an dieser Definition wird deutlich, dass künstliche Intelligenz als sehr idealistisch beschrieben wird.

In einer anderen Definition gehen BIBEL u.a. sowohl auf die Vorgehensweise der KI-Forscher als auch auf die Verwendung von KI ein: „Die ´künstliche Intelligenz` untersucht solche bisher dem Menschen vorbehaltene Verhaltensweisen, indem sie sie auf dem Rechner simuliert und naturwissenschaftlicher Betrachtungsweise und damit ingenieurmäßiger Verwendung zugänglich macht.“ (Bibel/u.a., 1987: S.

1)   JOHN SEARLE macht einen Unterschied zwischen der starken und der schwachen KI. So besteht bei der schwachen KI der Wert des Computers im wesentlichen in seiner Funktion als Werkzeug beim Studium des Geistes (mind). Diese These wird unterstützt von KAIL und PELLEGRINO, die die menschliche Kognition mit Hilfe einiger Begriffe der Computerwissenschaft nachzeichnen. „Dabei behandeln die meisten Kognitionspsychologen unserer Zeit die menschliche Kognition als einen Prozess der Informationsverarbeitung. Der Terminus der Informationsverarbeitung ist der Computerwissenschaft entlehnt und gibt bereits einen deutlichen Hinweis auf die Natur des Ansatzes.“ (Kail/Pellegrino, 1988: S.

54)   Bei der starken KI ist ein entsprechend programmierter Computer nicht nur ein Werkzeug zum Studium des Geistes, sondern realisiert den Geist in dem Sinne, dass von ihm behauptet werden kann, er verstehe tatsächlich und könne kognitive Zustände, wie sie bei Menschen vorzufinden sind, imitieren. (Schäfer, 1994: S.104 ff.) Während also die schwache KI nach SEARLE eher den Status einer Hilfswissenschaft für die cognitive psychology und die Philosophie hat, ist die starke KI ein eigener Forschungszweig. Das würde jedoch bedeuten, dass sich die schwache KI im Erfolgsfalle selbst auflöst bzw. deren Wissen und Methoden in andere Disziplinen eingebracht würde.

  Ob starke oder schwache KI, sie ist ein übergreifendes, interdisziplinäres Forschungsgebiet unter Beteiligung der (kognitiven) Psychologie, (Computer-) Linguistik, Philosophie, Neurowissenschaften. Desweiteren lässt sich nach dieser Sammlung von Definitionen zur künstlichen Intelligenz sagen, dass die KI der Frage nachgeht, in wiefern eine Maschine in der Lage ist, menschliche Intelligenz nachzuahmen. Es fällt bei dieser Ansammlung von Aussagen über die KI schwer eine Definition zu formulieren, da sich alle Ausführungen auf die Betätigungsfelder der KI beziehen, jedoch nicht auf das Wesen der KI. Dennoch lässt sich abschließend folgende Definition über die KI für diese Arbeit zugrunde legen:   Es ist die Aufgabe der KI unter Zuhilfenahme der Kognitionspsychologie, Philosophie und der Neurowissenschaften eine Maschine so zu programmieren, dass sie intelligentes menschliches Verhalten imitieren kann.   Grenzen der Künstlichen Intelligenz Wenn über die Grenzen der KI gesprochen wird, wird meist versucht, das eigene Paradigma mit allen Mitteln zu verteidigen und neue Betrachtungsweisen in das eigene Denksystem zu integrieren. AHRWEILER bezeichnet solch eine Abwehrstrategie als Synkretismus (Integration in das eigene Paradigma) hierdurch ist es möglich jede Kritik zu neutralisieren.

(vgl. Ahrweiler, 1995: S.18)   Mit dem Herausstellen des Synkretismus soll analysiert werden, welche Grenzen sich die KI-Forschung wirklich steckt oder ob es sogar zur Eigenschaft der KI-Forschung gehört, ohne Grenzen auszukommen. Hierbei sollen Grenzen immer verstanden werden als unabhängig vom Entwicklungstand nie zu erreichende Ziele.   Die Annahmen, die benannt werden, gehen auf DREYFUS und DREYFUS zurück, die mit Hilfe der direkten Anlehnung an menschliche Eigenschaften des Denkens und Handelns, die Grenzenlosigkeit der KI kritisch beleuchten wollen. In diesem Zusammenhang kommt vor allem dem oben benannten Synkretismus eine besondere Bedeutung zu, da es in der Natur dieser Annahmen liegt, menschliches Verhalten auf maschinelle Prozesse zu übertragen und integrieren zu wollen.

  WAHLSTER gesteht ein, dass es „Aspekte menschlichen Verhaltens gibt, die man gar nicht mit Informationsverarbeitung erklären kann.“ (Ahrweiler 1995: S.16) Er sagt weiter, „wenn es um Anwendungen geht, bin ich immer dafür, dass man soweit möglich ganzheitlich evaluiert und biologische Aspekte, die mit der Informationsverarbeitung gar nichts zu tun haben, mitberücksichtigt. Aber unsere These, unser Forschungsparadigma, ist nun einmal, dass wir alles auf Informationsverarbeitung beziehen. “ (Ahrweiler 1995: S.16) Auch an dieser Stelle wird das Wesen des Synkretismus deutlich.

Es ist unerheblich aus welchem Gebiet die erforschten Annahmen stammten, sie werden immer in das eigene Paradigma eingepasst.       Die biologische Annahme „Das menschliche Gehirn funktioniert physiologisch wie Computerhardware.“ (Daniel/Striebel 1993: S.23) DREYFUS ergänzt, dass „das Gehirn Informationen in einzelnen Abschnitten verarbeitet, und zwar mit Hilfe eines biologischen Äquivalents von Ein-Aus-Schaltern.“(Dreyfus 1985: S. 105/106)   DREYFUS beschreibt zwei Erkenntnisse, die diese Annahme verneinen: Nach vielen neurophysiologischen Forschungsergebnissen stellt man sich das Gehirn als einen elektronischen Rechner vor.

So stoßen die Neuronen im Gehirn einen elektrischen Stromstoß an benachbarte Neuronen aus, ähnlich einem Computer, der über einen elektrischen Impuls Informationen zusammenfügt. Bei einer genaueren Untersuchung der Tätigkeit eines digitalen Computers stellt man jedoch fest, dass es das Merkmal der Digitalität ist, dass Informationen in deskriptiver Sprache als Symbol dargestellt werden. Dieser Verarbeitungsmechanismus entspricht nicht dem des Gehirns. Das Gehirn bearbeitet Informationen analog. Das heißt physikalische Variablen wie zum Beispiel die Geschwindigkeit oder die Intensität entsprechen der eigentlichen Information. Eine Informationseinheit wird im Gehirn also nicht durch ein Symbol abgebildet, sondern die Art und Weise der Übertragung entspricht dem Symbol.

Das jedoch widerspricht der Informationsverarbeitung eines Digitalcomputers, so dass DREYFUS mit der Frage endet, ob Computer überhaupt die geeigneten Maschinen sind, um die Tätigkeit des Gehirns zu simulieren. ROSENBILTH beschreibt einen zweiten Argumentationsstrang gegen die biologische Annahme. Hierbei wird der Schwerpunkt nicht auf die Art der Informationsverarbeitung gelegt, sondern auf die Wechselwirkung der einzelnen Neuronen untereinander. Im Gehirn werden einzelne elektrische Stöße immer auch an benachbarte Neuronen weitergegeben. Ein Neuron steht also nicht isoliert im Raum, sondern interagiert immer mit vielen anderen Neuronen. Die Maschine bleibt jedoch nicht-interaktiv organisiert.

        Die erkenntnistheoretische Annahme „Menschliches Denken lässt sich formal beschreiben und ist mit den klassischen naturwissenschaftlichen Methoden zugänglich.“ (Daniel/Striebel 1993: S.23) Diese erkenntnistheoretische Annahme lässt sich in zwei Behauptungen segmentieren. 1. „Jedes nicht willkürliche Verhalten ist formalisierbar.“ (Dreyfus 1985: S.

138) 2. „Mit einem Formalismus kann das entsprechende Verhalten reproduziert werden.“ (Dreyfus 1985: S.138) Das menschliches Denken sich formal beschreiben lässt, dem stimmen auch DERYFUS und DREYFUS im ersten Kapitel ihres Buches zu. „Vom Neuling zum Experten“ (vgl. Dreyfus/Dreyfus, 1988: S.

37 – 80) nennen sie einen Aufsatz, der sich mit der Formalisierung menschlicher Lern- und damit auch Denkprozesse beschäftigt. Sie haben für den Erwerb einer neuen Fähigkeit fünf Stufen angenommen. Diese sind das Ergebnis einer Studie über den Fertigkeiten-Erwerb bei Flugzeugpiloten, bei Schachspielern, Autofahrern und Erwachsenen, die eine zweite Fremdsprache lernen.   1. Stufe: Neuling In der ersten Stufe macht man erste Versuche mit der neuen Fertigkeit umzugehen, hierzu dienen auf der einen Seite Instruktionen, auf der anderen Seite erlernt man Regeln, die kontextfrei formuliert werden, das heißt, sie sind aus der Gesamtsituation herauszuziehen und gelten immer. Zum Beispiel sagt der Fahrlehrer dem Neuling, er solle bei 20 km/h immer in den zweiten Gang schalten.

Diese Regel ist immer anzuwenden.   2. Stufe: Fortgeschrittener Anfänger Der Mensch erwirbt mit der Zeit Erfahrungen in der erlernten Fertigkeit. Es werden auch schon Entscheidungen getroffen, die situativ sind, und sich von der kontextfreien Regel unterscheiden. Es findet ein Lernprozess statt, in dem der Lernende die Ergebnisse der situativen mit den kontextfreien Regeln vergleicht. In jeder Situation entscheidet sich der Lernende neu für die erfolgreichste Regel nach dem Prinzip von ‚trial and error‘.

Für den Autofahrer gilt zwar immer noch die Regel bei 20 km/h in den zweiten Gang zu schalten, doch nimmt er zusätzlich Motorgeräusche wahr, die es ihm ermöglichen auch ohne Blick auf den Tacho abzuwägen, wann es nötig ist, in den zweiten Gang zu schalten. Es fällt schwer, eine Regel auf der Basis eines erhöhten Motorgeräusches aufzustellen, die dem Fahranfänger deutlich macht, in den zweiten Gang zu schalten. Situative Regeln sind also schwer zu formulieren und ergeben sich ausschließlich durch die Erfahrung, die der Lernende in seiner neuen Fertigkeit erwirbt.   3. Stufe: Kompetenz Die Zahl der kontextfreien und situativen Elemente werden ansteigen. Das heißt, die Situationen werden immer komplexer.

Hierzu muss der Mensch die ihm gegenüberstehende Situation organisieren. Er setzt sich ein Ziel und formuliert danach einen geordneten Plan. Der Autofahrer, der von A nach B in möglichst kurzer Zeit fahren möchte, wird dementsprechend seinen Fahrstil konzipieren. Durch die bewusste Planung seiner Handlung steht der Handelnde in einem engen Verhältnis zu dem Ergebnis, erfühlt sich für den Ausgang der Handlung verantwortlich.   4. Stufe: Gewandtheit Der gewandte Mensch ist in der Lage Ähnlichkeiten zu erkennen.

Er kann eine aktuelle Situation mit einer früheren Situation vergleichen, ohne sie in ihre Einzelteile zu zerlegen. DREYFUS und DREYFUS bezeichnen dies als holistisches Erkennen von Ähnlichkeiten.   5. Stufe: Experte Das Können ist Teil seiner Person geworden. Einen Großteil seiner Entscheidungen trifft er intuitiv. „Wenn keine außergewöhnlichen Schwierigkeiten auftauchen, lösen Experten weder Probleme noch treffen sie Entscheidungen; sie machen einfach das, was normalerweise funktioniert.

“ (Dreyfus/Dreyfus, 1988: S. 55) Dennoch treffen Experten ihre Entscheidungen nicht unreflektiert, es steht jedoch nicht mehr das Problemlösen im Vordergrund, sondern eher eine kritische Betrachtung ihrer Intuition.   „Computer sind universelle Symbol-Manipulatoren. Daher können sie jeden Prozess simulieren, der sich exakt beschreiben lässt.“ (Dreyfus/Dreyfus, 1988: S. 82) Der Annahme, menschliches Denken sei formal zu beschreiben, ist also zuzustimmen.

Der ersten Behauptung, jedes nicht willkürliche Verhalten ist formalisierbar, lässt sich auch zustimmen, wenn mit „nicht willkürlich“ gemeint ist, einer strikten Regel folgend. Denn eine symbolverarbeitende Maschine kann nur das darstellen, was kontextunabhängig ist, objektiven, interpretationsunabhängigen Merkmalen folgt und in strikten Regeln zu formulieren ist, da Merkmale einem Symbol eindeutig zugewiesen werden müssen. Auch der zweiten Behauptung, dass entsprechendes Verhalten mit einem Formalismus zu reproduzieren ist, ist zuzustimmen, wie DREYFUS und DREYFUS an erfolgreichen Versuchen in definierten Mikrowelten zu belegen wissen (vgl. Dreyfus/Dreyfus, 1988: S.105 – 109). „Obwohl logische Maschinen die für den fortgeschrittenen Anfänger so wesentlichen situationalen Elemente nicht erkennen können, lassen sie sich dennoch darauf programmieren, ihre kontextfreien Regeln in Bezug auf Ziele zusammenzustellen – wie ein kompetenter Mensch.

Man kann dem Computer eine Regel eingeben, die ihm sagt, dass eine Situation, wenn bestimmte Fakten vorliegen, auf ein bestimmtes Ziel hin organisiert werden soll.“ (Dreyfus/Dreyfus, 1988: S.97) Ähnlich gehen Expertensysteme im Bereich der medizinischen Diagnose vor. Dennoch ist die denkende Maschine nicht in der Lage, auch die vierte und fünfte Stufe menschlichen Umgangs mit Fertigkeiten zu erreichen. Das holistische Erkennenen von Ähnlichkeiten ist, wie die nachfolgenden Ausführungen zeigen werden, nicht mit einem symbolverarbeitenden Digitalrechner nachzuvollziehen: DREYFUS und DREYFUS erklären die Funktionsweise eines holographischen Mustererkenners, um deutlich zu machen, wie sich die mechanistische Vorstellung über die Arbeitsweise des Gehirns von der holistischen unterscheidet. Hologramme entstehen, wenn sich zwei Lichtstrahlen, die ein Objekt anstrahlen, überlagern, dadurch entsteht ein neues holographisches Bild zum Beispiel auf einer Fotoplatte.

Überlagert man nun zwei Hologramme miteinander, so entstehen dort weiße Flecken, wo das eine Bild mit dem anderen übereinstimmt. Dieses holistische Erkennen von Ähnlichkeiten unterscheidet sich jedoch von dem einer symbolverarbeitenden Maschine, die jedes vorhandene Merkmal abgleichen muss. Wie die nachfolgende ontologische Annahme zeigen wird, ist die KI-Forschung sogar darauf angewiesen, jede Situation in möglichst kleine Elemente zu zerteilen, damit ihnen eindeutig ein Symbol zugewiesen werden kann. Das menschliche Gehirn scheint also eher holographisch als mechanistisch zu arbeiten, da es dem Menschen möglich ist Situationen als Ganzes zu begreifen.     Die ontologische Annahme Die aus KI-Sicht gemachte ontologische Annahme lässt sich in drei Aussagen zusammenfassen: Die Welt besteht „aus objektiven, von Menschen und untereinander unabhängigen Fakten.“ (Daniel/Striebel 1993: S.

23) Die Welt lässt sich in isolierbare, kontextunabhängige, kleine Elemente, zerlegen. (vgl. Daniel/Striebel 1993: S.24) Alle Elemente jedoch sind wiederum logisch voneinander abhängig. (vgl. Dreyfus 1985: S.

106)   Der Ansatz der Gegenargumentation ist aus der Linguistik abgeleitet. CHOMSKY und andere Vertreter der Transformationsgrammatik haben „von menschlicher Sprachverwendung abstrahiert und so die menschliche Fähigkeit formalisieren können, grammatisch korrekte Sätze zu erkennen und inkorrekte zurückzuweisen.“ (Dreyfus 1985: S.145/146) Es bleibt also die Frage, ob der Computer in der Lage ist, das formalisierte Verhalten anschließend zu reproduzieren. Hierbei müsste es der KI-Forschung gelingen, nicht nur die Sprachkompetenz, sondern auch die Sprachverwendung zu formalisieren. In diesem Punkt jedoch scheitert wiederum die Verwirklichung regelgeleiteter Systeme, denn ein Programm wird nie den Sinn einer Aussage „in einen Kontext menschlichen Lebens“ (Dreyfus 1985: S.

147) einordnen können. Aber in vielen Fällen macht erst der jeweilige Kontext eine Aussage verständlich. „Für eine vollständige Theorie der praktischen Fähigkeiten von Sprechern braucht man nicht nur grammatische und semantische Regeln, sondern darüber hinaus Regeln, die es einer Person oder einer Maschine ermöglichen würden, den Kontext zu erkennen, in dem die Regeln angewendet werden müssen.“ (Dreyfus 1985: S.151) Es müssten also Regeln für die Regeln entwickelt werden, um einen Kontext als eine Ausnahme von der Regel zu beschreiben. In diesem Moment befindet sich das Programm in einem unendlichen Regress.

„Da wir [Menschen] in der Lage sind, von unserer Sprache Gebrauch zu machen, kann dieser Regress für Menschen kein Problem sein. Wenn künstliche Intelligenz möglich sein soll, darf dies auch für Maschinen kein Problem sein.“ (Dreyfus 1985: S.151) Das sich hier an die Formalisierbarkeit von menschlichem Verhalten anschließende Problem wird von DREYFUS und DREYFUS auch das „Relevanzproblem“ (Dreyfus/Dreyfus, 1988: S.114) genannt. So ist es möglich jede in sich abgeschlossene Situation zu formalisieren.

Versuche, diese vielen abgeschlossenen Situationen zu einem Gesamtverhalten zusammenzuschließen, gelangen jedoch nie. Hierzu schreibt MINSKY, dass „die in Semantic Information of Processing beschriebenen Programme am Besten arbeiten werden, wenn man ihnen die exakt notwendigen Fakten eingibt“, aber „sie werden unerbittlich stecken bleiben, wenn die Informationsdateien wachsen.“ (Minsky, 1968: S.18) Er schreibt weiter: „Jedes Programm arbeitet nur in seinem begrenzten Spezialgebiet und es gab keine Möglichkeit, zwei verschiedene Problem-Löser miteinander zu verbinden.“ (Minsky, 1968: S.13) Der Computer scheint mit wachsender Komplexität der Situation nicht mehr unterscheiden zu können, welche Regeln in einem bestimmten Zusammenhang von Bedeutung sind und welche nicht.

Für einen Digitalcomputer ohne eine Beziehung zu der erlebten Welt sind die aus einem „Kontext herausgelösten Tatsachen eine sperrige Masse neutraler Daten.“ (Dreyfus 1985: S.234) So ist dem ontologischen Argument nur solange zuzustimmen, wie die programmierte Situation klar definiert ist. Es ist jedoch im Moment nicht vorstellbar, dass eine komplexe Situationen so formalisiert werden kann, dass die Maschine zwischen relevanten und irrelevanten Regeln unterscheiden kann. Grundsätzlich bleibt die Frage, ob Menschen in der Lage sind auch komplexe Situationen so zu beschreiben, dass sie komplett in Regeln gefasst werden können. „Allein aber die Anzahl amtierender Juristen zeigt uns, dass es unmöglich ist, Ambiguitäten, Ermessens- und Urteilsspielräume auszuräumen, indem man die Gesetzbücher so komplettiert, dass sie alle möglichen Situationen beschreiben und vorwegnehmen.

“ (Dreyfus/Dreyfus, 1988: S.114)      Zusammenfassende Übersicht über die Grenzen der KI   Annahmen der KI Aussagen der KI-Forschung über menschliche Kognitionsvorgänge Widerlegung/Zustimmung nach DREYFUS und DREYFUS zur Übertragung auf die Fähigkeiten eines Computers Biologische Annahme „Das menschliche Gehirn funktioniert physiologisch wie Computerhardware.“ (Daniel/Striebel 1993: S.23) Kein Vergleich möglich, da das Gehirn Symbole physikalisch verarbeitet (Intensität/ Geschwindigkeit), während der Computer Symbole als solche verarbeitet. Das menschliche Gehirn arbeitet holographisch und ist in der Lage eine Situation als Ganzes zu erkennen, der Computer arbeitet mechanistisch und ist dadurch nur in der Lage Segmente einer Situation zu verstehen. Erkenntnistheoretische Annahme „Menschliches Denken lässt sich formal beschreiben und ist mit den klassischen naturwissenschaftlichen Methoden zugänglich.

“ (Daniel/Striebel 1993: S.23) Dieser Aussage ist zuzustimmen: „Computer sind universelle Symbol-Manipulatoren. Daher können sie jeden Prozess simulieren, der sich exakt beschreiben lässt.“ (Dreyfus/Dreyfus, 1988: S. 82) „Jedes nicht willkürliche Verhalten ist formalisierbar.“ (Dreyfus 1985: S.

138) Wenn mit „nicht willkürlich“ einer strikten Regel folgend gemeint ist, ist auch dieser Aussage zuzustimmen. „Mit einem Formalismus kann das entsprechende Verhalten reproduziert werden.“ (Dreyfus 1985: S.138) Auch für den Computer lassen sich kontextfreie Regeln formulieren, wobei es schon immer eine der Stärken des Computers war, Abläufe reproduzieren zu können. Ontologische Annahme Die Welt besteht „aus objektiven, von Menschen und untereinander unabhängigen Fakten.“ (Daniel/Striebel 1993: S.

23)   Eine Aussage muss jedoch immer unter Berücksichtigung des gesamten Kontextes gesehen werden und genau da scheitern die Maschinen. Sie können vielleicht einzelne Informationen verstehen, jedoch nicht den Zusammenhang herstellen. Die Welt lässt sich in isolierbare, kontextunabhängige, kleine Elemente, zerlegen. (vgl. Daniel/Striebel 1993: S.24) Der Aussage ist zuzustimmen, es ist jedoch nach DREYFUS und DREYFUS nie gelungen, diese Informationen zu einem sinnvollen Ganzen zu verknüpfen.

      Anhand dieser abschließenden Übersicht ist zu erkennen, dass es nur wenige Grenzen gibt, die die KI zu überwinden hat. Vielfach sind diese Grenzen dabei nur dem technologischen Unvermögen zuzuschreiben. Es wird also weiterhin die Frage offen bleiben, ob es möglich ist, selbstreferentielle Systeme zu erschaffen. Hinzu kommt, dass der Ansatz der symbolischen KI, wie schon oben erwähnt, die ersten Versuche in der KI-Forschung repräsentiert. Es bleibt also abzuwarten, ob neuere Entwicklungen die von DREYFUS und DREYFUS beschriebenen Grenzen überwinden können. Dabei könnten die im Folgenden beschriebenen Expertensysteme einen Anfang einleiten.

  Möglichkeiten der Künstlichen Intelligenz Der Computer war bis dato immer auf einen Input angewiesen, selbst die Lösung eines Problems wurde dem Computer immer vorgegeben, er war immer eine Reproduktionsmaschine, jedoch nie eine Produktionsmaschine, so wie der Mensch. Diese und viele andere Grenzen wurden in dem vorangegangenen Kapitel erläutert, dennoch muss es einige Erfolge auf dem Gebiet der KI gegeben haben, die die mittlerweile schon 40-jährige Tradition rechtfertigen. Das nun folgende Kapitel soll einen Überblick über die Erfolge in der KI-Forschung geben, um im Anschluss daran unter Berücksichtigung der Definitionen kritisch zu analysieren, welche Fähigkeiten KI-Systeme erlangen können und in welchen Bereichen sie den Menschen nie imitieren können werden.   Expertensysteme Ein Expertensystem ist ein Programm, das mit Hilfe von Wenn-Dann-Regeln in der Lage ist Aussagen über einen bestimmten Sachverhalt zu treffen. Solch eine Form der Datenverarbeitung wird als wissensbasierte Verarbeitung bezeichnet. Expertensysteme sind jedoch nicht mit Datenbanken zu vergleichen, da reine Datenbanken nicht in der Lage sind ihre Daten zu interpretieren.

Wissen ist also nichts anderes als interpretierte Daten. Ein wissensbasiertes System soll somit einen menschlichen Experten simulieren. „Im Unterschied zum menschlichen Experten ist das Wissen eines Expertensystems auf eine spezialisierte Informationsbasis beschränkt...“ (Mainzer, 1997: S.

110)   Nach RADERMACHER ist „ein Großteil von dem, was wir tun, nicht mehr ... als Regelverarbeitung“ (Ahrweiler 1995: S.25). Hierzu werden einfache „Wenn-Dann-Regeln“ aufgestellt, die das Programm Schritt für Schritt durchläuft.

Für RADERMACHER liegt der größte Beitrag der KI in den Inferenzsystemen, die geschrieben wurden, um „die Verwaltung und Abarbeitung großer Regelmengen zu erleichtern“ (Ahrweiler 1995: S.25). Schon an dieser Stelle wird deutlich, dass es, wenn auch in einem begrenzten Rahmen, möglich ist, menschliche Denkvorgänge auf eine Maschine zu übertragen.   Nachdem im Expertensystembereich sehr unterschiedliche Definitionen von Expertensystemen im Umlauf sind, erscheint es sinnvoll die differenzierende Definition aus COY und BONSIEPEN zu übernehmen. Diese Definition trennt zwei unabhängige Aspekte, die für den Begriff Expertensystem wichtig sind, in zwei verschiedene Definitionen:   Anwendungsorientierte Definition: Ein Expertensystem ist ein Computerprogramm, das für ein spezifisches und genau abgegrenztes Teilgebiet gewisse Aufgaben eines Experten lösen kann bzw. ihn bei der Problemlösung unterstützt.

Dazu wird das spezielle Wissen des Experten explizit in symbolischer Form in einem Programm oder als Datenmenge bzw. innerhalb einer Datenbank dargestellt.   Technische Definition: Expertensysteme sind Programme, die sich durch die Trennung der anwendungsspezifischen Methoden in der Wissensbank und der anwendungsunabhängigen Programmsteuerung durch die Inferenzmaschine zum Erzeugen logischer Schlussfolgerungen auszeichnet.   Es ergeben sich natürlich auch zwei Fälle, wo diese beiden Definitionen nicht zusammenfallen. Zum einen kann ein System Aufgaben eines Experten übernehmen und doch auf traditionelle Art programmiert sein, zum Beispiel aus Effizienzgründen. Zum anderen kann es vorkommen, dass ein System in der Art der Expertensysteme programmiert ist, dass es jedoch für Aufgaben verwendet wird, für die bisher kein Experte eingesetzt wurde, wie z.

B. in der Prozessteuerung oder in der Mustererkennung.     Funktionsweise von Expertensystemen Typisch für die Funktionsweise von Expertensystemen ist auf der einen Seite das Aufstellen sehr komplizierter Wenn-Dann-Regeln und auf der anderen Seite das Berechnen von Wahrscheinlichkeiten. Dadurch, dass es dynamische Regelsysteme sind, werden am Ende der Problemlösungssequenz mehrere richtige Lösungen benannt, die mit unterschiedlichen Wahrscheinlichkeiten belegt sind. Ähnlich einer quadratischen Gleichung, die immer zwei Lösungen hervorbringt, wäre in diesem Fall die Wahrscheinlichkeit der richtigen Lösung mit 1:1 zu bestimmen. (vgl.

Puppe, 1988)   Expertensysteme sind Programmstrukturen, die aus mehreren Teilen bestehen. Grundsätzlich kann man Expertensysteme in zwei „Hauptmodule“ einteilen (siehe Abb.1). Zum einen das Steuersystem und zum anderen die Wissensbasis. Zuerst soll das Steuersystem näher erläutert werden, um schließlich den Aufbau der Wissensbasis aufzuzeigen.   Das Steuersystem eines Expertensystems kann die Lösungsstrategie eines Experten simulieren.

Die Regeln werden zu einer Konstanten, die auf unterschiedliche Wissensgebiete angewendet werden kann. Sie ist unabhängig von der Wissensbasis. Nach PUPPE besteht das Steuersystem aus 4 Komponenten (siehe Abb.1).   Die Problemlösungskomponente ist der Vermittler zwischen der Wissensbasis und dem Steuersystem. Hier wird „das Expertenwissen zur Lösung des vom Benutzer spezifizierten Problems interpretiert.

“ (Puppe, 1988: S.12) Die Interviewerkomponente liest die variablen Daten ein, bzw. die Aufgabenstellung von Seiten des Benutzers. „Die Erklärungskomponente erläutert dem Anwender die ermittelte Lösungsstrategie.“ (Nebendahl, 1987: S. 33) So kann der Anwender Fehler in der Wissensbasis lokalisieren oder auch nur den Lösungsweg ablesen.

In jedem Fall wird die Arbeit des Expertensystems transparent gemacht. Die Wissenserwerbskomponente ist der Ort im Programm, in den der Experte sein Wissen eingeben kann. Sind nur Wissenserwerbskomponente, Interviewerkomponente, Erklärungskomponente und Problemlösungskomponente vorhanden, spricht man von einer (Expertensystem-) Shell. Die Anwender können hier das Wissensgebiet selbst festlegen, indem sie die Wissensbank mit dem nötigen Wissen auffüllen.   „Die Wissensbasis eines Expertensystems enthält das Faktenwissen und Erfahrungswissen von Experten eines Aufgabengebietes.“ (Nebendahl, 1987: S.

33) Die Wissensbasis besteht aus drei verschiedenen Teilen (siehe Abb.1): Dem fallspezifischen Wissen von den jeweiligen Benutzern, den Zwischenergebnissen und Problemlösungen, die von der Problemlösungskomponente hergeleitet wurden und dem bereichsbezogenen Expertenwissen. (Puppe, 1988: S.12) Während die Wissensbasis also dem Input entspricht, ist das Steuersystem das Herz des Expertensystems. Hier wird das Input so verarbeitet, wie die Regeln es vorschreiben. Erst das Steuersystem macht aus einem Expertensystem eine intelligente Maschine.

Der Hauptvorteil der Trennung des Systems in Inferenzkomponente und Wissensbank ist der einer leichten Wartung und Änderbarkeit, da diese Systeme typischerweise eben in Gebieten mit sich änderndem Wissen eingesetzt werden.   Beim Erstellen eines Expertensystems vier Teilgebiete zu beachten: (vgl.Puppe, 1988: S.113ff.) Wissenserwerb Wissensrepräsentation Inferenzmechanismus Benutzerschnittstelle     zu a) Wissenserwerb Der Wissenserwerb (vgl. Puppe, 1988: S.

115ff.) ist der Versuch, das Wissen eines Experten in einer implementationsunabhängigen aber formalen Weise niederzulegen. Dies kann auf verschiedene Weise geschehen: Indirekt: Dazu muss der Wissensingenieur dem menschlichen Experten helfen, sein relevantes fachliches Wissen zu identifizieren, zu strukturieren und zu formalisieren. Andere Wissensquellen neben dem Experten können für den Wissensingenieur eigenes Fachwissen sowie Fallstudien oder Bücher sein. Direkt: „Der Experte formalisiert sein Wissen selbst.“ (Puppe, 1988: S.

114) Dazu muss das Expertensystem eine leicht bedienbare Wissenserwerbskomponente haben.   Automatisch: „Das Expertensystem extrahiert sein Wissen selbständig aus Falldaten oder verfügbarer Literatur.“ (Puppe, 1988: S.114) Diese Technik ist allerdings im Moment reiner Forschungsgegenstand. Zum Wissen eines Experten können ganz verschiedene Dinge gehören, wie zum Beispiel Fakten, Überzeugungen, Methoden, Heuristiken und nicht zuletzt Problemlösungswissen (globale Strategien, Metawissen). Ein Phasenplan zum Wissenserwerb sieht folgendermaßen aus: Zuerst wird ein Pflichtenheft mit organisatorischer Umgebung und Anforderungen an das Expertensystem erstellt.

Anschließend wird der Grobentwurf und der zu betrachtende Realitätsausschnitt festgelegt. Danach wird das Wissen in einer, dem verwendeten Rechnersystem und der zur Anwendung kommenden Shell verständlichen Form aufbereitet. Die hierbei zustandekommenden Strukturen dienen dann der Formulierung von Regeln, die in einem letzten Teil des Phasenplans getestet werden. (nach Buchanan, 83: S.139)   b) Wissensrepräsentation Die Wissensrepräsentation hat eine natürliche und effiziente Darstellung des “Wissens” zum Ziel. Unabhängig von der nicht ganz klaren Bedeutung von natürlich in diesem Zusammenhang ist klar, dass diese Bedingungen eventuell in Konflikt miteinander treten können.

Hierzu sind Kalküle entwickelt worden, die den regelhaften Ablauf des Systems steuern. Ein Kalkül beschreibt, wie man aus Aussagen mit Hilfe von Ableitungsregeln neue Aussagen erhält. Vorgegebene Aussagen sind die Axiome (Fakten, Annahmen, das was nicht in Frage gestellt wird). Abgeleitete Aussagen sind Theoreme (Schlussfolgerung). PUPPE benennt sechs unterschiedliche Eigenschaften von Kalkülen: Adäquatheit: Natürlichkeit der Beschreibung der Welt Effizienz: Relevanz der Schlussfolgerungen für die Welt Mächtigkeit: Repräsentierbarkeit von Aussagen über die Welt Entscheidbarkeit: Ein Kalkül verfügt dann über die Eigenschaft der Entscheidbarkeit, „we

Suchen artikel im kategorien
Schlüsselwort
  
Kategorien
  
  
   Zusammenfassung Der Vorleser

   sachtextanalyse

   interpretation zwist

   Fabel interpretation

   literarische charakteristik

   interpretation bender heimkehr

   felix lateinbuch

   interpretation der taucher von schiller

   textbeschreibung

   charakterisierung eduard selicke
Anmerkungen:

* Name:

* Email:

URL:


* Diskussion: (NO HTML)




| impressum | datenschutz

© Copyright Artikelpedia.com