Ein physisches Symbolsystem (19459004) (auch als formales System bezeichnet) nimmt physische Muster (Symbole), kombiniert diese zu Strukturen (Ausdrücken) und manipuliert sie (unter Verwendung von Prozessen), um neue Ausdrücke zu erzeugen.
Die Hypothese des physikalischen Symbolsystems ( PSSH ) ist eine Position in der von Allen Newell und Herbert A. Simon formulierten Philosophie der künstlichen Intelligenz. Sie schrieben:
"Ein physisches Symbolsystem hat die notwendigen und ausreichenden Mittel für allgemeines intelligentes Handeln." [1]
Diese Behauptung impliziert, dass das menschliche Denken eine Art Symbolmanipulation ist (weil ein Symbolsystem für die Intelligenz erforderlich ist) und dass Maschinen dies können sei intelligent (weil ein Symbolsystem für die Intelligenz ausreicht). [2]
Die Idee hat philosophische Wurzeln in Hobbes (der behauptete, es sei "nichts anderes als Abrechnung"), Leibniz (der es versuchte) einen logischen Kalkül aller menschlichen Ideen erstellen), Hume (der die Wahrnehmung der Wahrnehmung auf "atomare Eindrücke" reduzieren konnte) und sogar Kant (der alle Erfahrungen als von formalen Regeln beherrscht analysierte). [3] Die neueste Version wird als Computertheorie bezeichnet In Verbindung mit den Philosophen Hilary Putnam und Jerry Fodor. [4]
Die Hypothese wurde von verschiedenen Parteien stark kritisiert, ist jedoch ein zentraler Bestandteil der KI-Forschung. Eine gängige kritische Ansicht ist, dass die Hypothese für höhere Intelligenz wie Schachspielen geeignet erscheint, jedoch weniger für gewöhnliche Intelligenz wie Vision. Man unterscheidet gewöhnlich zwischen den Symbolen der höheren Ebene, die direkt Objekten der Welt entsprechen, wie
Beispiele [ edit ]
Beispiele für physikalische Symbolsysteme umfassen:
- Formale Logik: Die Symbole sind Wörter wie "und", "oder", "nicht", "für alle x" und so weiter. Die Ausdrücke sind Aussagen in formaler Logik, die wahr oder falsch sein können. Die Prozesse sind die Regeln der logischen Deduktion.
- Algebra: Die Symbole sind "+", "×", " x ", " y ", "1", " 2 "," 3 "usw. Die Ausdrücke sind Gleichungen. Die Prozesse sind die Regeln der Algebra, die es einem erlauben, einen mathematischen Ausdruck zu manipulieren und seine Wahrheit zu bewahren.
- Ein digitaler Computer: Die Symbole sind Nullen und die des Computerspeichers, die Prozesse sind die Operationen der CPU, die den Speicher ändern.
- Schach: Die Symbole sind die Teile, die Prozesse sind die legalen Schachzüge, die Ausdrücke sind die Positionen aller Teile auf der Tafel.
Die physikalische Symbolsystemhypothese behauptet, beide seien auch Beispiele für physische Symbolsysteme:
- Intelligenter menschlicher Gedanke: Die Symbole sind in unserem Gehirn kodiert. Die Ausdrücke sind Gedanken. Die Prozesse sind die Denkvorgänge des Denkens.
- Ein laufendes Programm für künstliche Intelligenz: Die Symbole sind Daten. Die Ausdrücke sind mehr Daten. Die Prozesse sind Programme, die die Daten manipulieren.
Argumente für die physikalische Symbolsystemhypothese [ edit ]
Newell und Simon edit ]
Zwei Beweislinien deuteten Allen Newell und Herbert A. Simon an, dass "Symbolmanipulation" die Essenz sowohl der menschlichen als auch der maschinellen Intelligenz ist: der Entwicklung künstlicher Intelligenzprogramme und psychologischer Experimente an Menschen.
Zunächst gab es in den ersten Jahrzehnten der KI-Forschung eine Reihe sehr erfolgreicher Programme, die die Verarbeitung von Symbolen auf hohem Niveau verwendeten, wie etwa Newell und Herbert A. Simons General Problem Solver oder Terry Winograds SHRDLU. [5] John Haugeland nannte dies Art der KI-Forschung "Good Old Fashioned AI" oder GOFAI. [6] Expertensysteme und Logikprogrammierung sind Nachkommen dieser Tradition. Der Erfolg dieser Programme legt nahe, dass Symbolverarbeitungssysteme intelligente Aktionen simulieren können.
Zweitens fanden psychologische Experimente, die zur gleichen Zeit durchgeführt wurden, heraus, dass bei schwierigen Problemen in der Logik, beim Planen oder bei jeder Art von "Puzzle-Lösung" auch diese Art der Symbolverarbeitung verwendet wurde. KI-Forscher konnten Schritt für Schritt die Problemlösungskompetenz von Menschen mit Computerprogrammen simulieren. Diese Zusammenarbeit und die damit angesprochenen Probleme würden schließlich zur Schaffung des Feldes der Kognitionswissenschaft führen. [7] (Diese Art von Forschung wurde "kognitive Simulation" genannt.) Diese Forschungslinie deutete darauf hin, dass die Problemlösung des Menschen in erster Linie aus der Manipulation bestand von übergeordneten Symbolen.
Symbole vs. Signale [ edit ]
In den Argumenten von Newell und Simon sind die "Symbole", auf die sich die Hypothese bezieht, physische Objekte, die Dinge in der Welt repräsentieren, Symbole wie solche als
Es ist jedoch auch möglich, die Hypothese unter Bezugnahme auf die einfachen abstrakten Nullen und Einsen im Speicher eines digitalen Computers oder den Strom von Nullen und Einsen zu interpretieren, der den Wahrnehmungsapparat eines Roboters passiert. Dies sind in gewissem Sinne auch Symbole, obwohl es nicht immer möglich ist, genau zu bestimmen, wofür die Symbole stehen. In dieser Version der Hypothese wird nicht zwischen "Symbolen" und "Signalen" unterschieden, wie David Touretzky und Dean Pomerleau erklären. [8]
Unter dieser Interpretation wird das physikalische Symbolsystem als Hypothese bezeichnet behauptet lediglich, dass Intelligenz digitalisiert werden kann . Dies ist eine schwächere Behauptung. In der Tat schreiben Touretzky und Pomerleau, dass, wenn Symbole und Signale dasselbe sind, "Uuffizienz" gegeben ist, es sei denn, man ist ein Dualist oder eine andere Art Mystiker, weil physische Symbolsysteme Turing-universal sind. "[19659033] Die weithin akzeptierte Church-Turing-These besagt, dass jedes universelle Turing-System jeden denkbaren Prozess simulieren kann, der mit ausreichend Zeit und Speicher digitalisiert werden kann. Da jeder digitale Computer Turing-Universal ist, kann jeder digitale Computer theoretisch alles simulieren, was mit ausreichender Genauigkeit digitalisiert werden kann, einschließlich des Verhaltens intelligenter Organismen. Die notwendige Bedingung der Hypothese physikalischer Symbolsysteme kann ebenfalls verfeinert werden, da wir fast jedes Signal als eine Form von "Symbol" akzeptieren und alle intelligenten biologischen Systeme Signalwege haben.
Kritik [ edit ]
Nils Nilsson hat vier Haupt- "Themen" oder Gründe identifiziert, in denen die physikalische Symbolsystem-Hypothese angegriffen wurde. [2]
- Die "irrtümliche Behauptung, dass die." [physical symbol system hypothesis] mangelt es an Symbolerde ", von der angenommen wird, dass sie eine allgemeine intelligente Aktion erfordert.
- Die allgemeine Überzeugung, dass AI eine nicht-symbolische Verarbeitung erfordert (die beispielsweise von einer Connectionist-Architektur geliefert werden kann).
- The Gemeinsame Aussage, dass das Gehirn einfach kein Computer ist und dass "die Berechnung, wie sie derzeit verstanden wird, kein geeignetes Modell für die Intelligenz darstellt".
- Und schließlich glauben einige auch, dass das Gehirn im Wesentlichen ist Die meisten Reaktionen sind unrealistisch chemische Reaktionen, und das intelligente Verhalten des Menschen ist analog zu dem intelligenten Verhalten, das beispielsweise von Ameisenkolonien gezeigt wird.
Dreyfus und der Primat unbewusster Fähigkeiten [ ed it ]
Hubert Dreyfus griff die notwendige Bedingung der Hypothese des physikalischen Symbolsystems an und nannte sie "die psychologische Annahme" und definierte sie so:
- Der Geist kann als ein Gerät betrachtet werden, das Informationselemente nach formalen Regeln bearbeitet. [9]
Dreyfus wies dies zurück, indem er zeigte, dass menschliche Intelligenz und Sachkenntnis davon abhingen hauptsächlich auf unbewussten Instinkten statt auf bewusste symbolische Manipulation. Experten lösen Probleme schnell, indem sie ihre Intuitionen verwenden und nicht schrittweise nach Versuch und Fehler suchen. Dreyfus argumentierte, dass diese unbewussten Fähigkeiten niemals in formellen Regeln festgehalten würden. [10]
Searle und sein chinesisches Zimmer [ edit ]
John Searles chinesisches Raumargument, das 1980 vorgestellt wurde, versuchte zu zeigen man kann nicht sagen, dass ein Programm (oder ein physisches Symbolsystem) die von ihm verwendeten Symbole "versteht"; dass die Symbole selbst keine Bedeutung oder keinen semantischen Inhalt haben, und die Maschine kann niemals durch die Manipulation von Symbolen allein wirklich intelligent sein. [11]
Brooks und die Robotiker [ edit ]
In den sechziger und siebziger Jahren versuchten mehrere Laboratorien, Roboter zu bauen, die Symbole verwendeten, um die Welt darzustellen und Aktionen zu planen (z. B. Stanford Cart.) ). Diese Projekte hatten nur begrenzten Erfolg. In den mittleren Achtzigern gelang es Rodney Brooks vom MIT, Roboter zu bauen, die überlegene Bewegungs- und Überlebensfähigkeit besaßen, ohne dabei auf symbolische Überlegungen zurückgreifen zu müssen. Brooks (und andere, wie Hans Moravec) stellten fest, dass unsere grundlegenden Fähigkeiten in Bezug auf Bewegung, Überleben, Wahrnehmung, Gleichgewicht usw. überhaupt keine Symbole auf hohem Niveau zu erfordern scheinen, dass die Verwendung von Symbolen auf hohem Niveau tatsächlich mehr war kompliziert und weniger erfolgreich.
In einer 1990 erschienenen Zeitung Elephants Don't Play Chess zielte der Roboterforscher Rodney Brooks direkt auf die physikalische Symbolsystemhypothese und argumentierte, dass Symbole nicht immer notwendig seien, da "die Welt ihr eigenes Vorbild ist. Sie ist immer genau das Richtige." Bis heute ist jedes Detail bekannt. Der Trick besteht darin, es angemessen und oft genug zu spüren. "[12]
Connectionism [ edit
verkörperte Philosophie edit ]
George Lakoff, Mark Turner und andere haben argumentiert, dass unsere abstrakten Fähigkeiten in Bereichen wie Mathematik, Ethik und Philosophie von unbewussten Fähigkeiten abhängen, die vom Körper ausgehen, und dass bewusste Symbolmanipulation ist nur ein kleiner Teil unserer Intelligenz.
Siehe auch [ edit ]
- ^ Newell & Simon 1976, p. 116 und Russell & Norvig 2003, p. 18
- ^ a b Nilsson 2007, p. 1
- ^ Dreyfus 1979, p. 156, Haugeland, S. 15–44
- ^ Horst 2005
- ^ Dreyfus 1979, S. 130–148
- Haugeland 1985, S. 156. 112
- ^ Dreyfus 1979, S. 91–129, 170–174
- ^ a b Rekonstruktion physikalischer Symbolsysteme David S. Touretzky und Dean A. Pomerleau Abteilung für Informatik Carnegie Mellon Universität Cognitive Science 18 (2): 345–353, 1994. http://www.cs.cmu.edu/~dst/pubs/simon-reply-www.ps.gz[19659080↑__19659061Dreyfus1979p156
- ^ Dreyfus 1972, Dreyfus 1979, Dreyfus & Dreyfus 1986. Siehe auch Russell & Norvig 2003, S. 950–952, Crevier, 1993 & 120–132 und Hearn 2007, S. 50–51 [19659084] Searle 1980, Crevier 1993, S. 269–271
- ^ Brooks 1990, S. 273. 3
Referenzen [ edit ]
- Brooks, Rodney (1990), "Elefanten spielen nicht Schach" (PDF) Robotics und Autonome Systeme 6 (1–2): 3–15, CiteSeerX 10.1.1.588.7539 doi: 10.1016 / S0921-8890 (05) 80025-9 abgerufen 2007-08-30 .
- Cole, David (Fall 2004), "The Chinese Room Argument", in Zalta, Edward N., The Stanford Encyclopedia of Philosophy .
- Crevier, Daniel (1993), AI: Die turbulente Suche nach künstlicher Intelligenz New York, NY: BasicBooks, ISBN 0-465-02997 -3
- Dreyfus, Hubert (1972), Was Computer nicht können New York: MIT Press, ISBN 978-0-06- 011082-6
- Dreyfus, Hubert (1979), Was Computer noch noch nicht möglich sind [1 9459025]New York: MIT Press
- Dreyfus, Hubert; Dreyfus, Stuart (1986), Mind over Machine: Die Kraft menschlicher Intuition und Expertise in der Computerzeit Oxford, Großbritannien: Blackwell
- Gladwell, Malcolm (2005), Blink: Die Kraft des Denkens ohne Denken Boston: Little, Brown, ISBN 978-0-316-17232-5 .
- Haugeland , John (1985), Künstliche Intelligenz: The Very Idea Cambridge, Massachusetts, MIT Press
- Hobbes (1651), Leviathan . 19659012] Horst, Steven (Herbst 2005), "The Computational Theory of Mind", in Zalta, Edward N., Die Stanford-Enzyklopädie der Philosophie .
- Kurzweil, Ray ( 2005), The Singularity is Near New York: Viking Press, ISBN 978-0-670-03384-3 .
- McCarthy, John; Minsky, Marvin; Rochester, Nathan; Shannon, Claude (1955), Ein Vorschlag für das Dartmouth Summer Research-Projekt zur künstlichen Intelligenz archiviert aus dem Original am 2008-09-30 .
- Newell, Allen; Simon, H. A. (1963), "GPS: Ein Programm, das menschliches Denken simuliert", in Feigenbaum, E.A .; Feldman, J., Computers and Thought New York: McGraw-Hill
- Newell, Allen; Simon, HA (1976), "Computer Science als empirische Untersuchung: Symbole und Suche", Mitteilungen der ACM 19 (3): 113–126, doi: 10.1145 / 360018.360022
- Nilsson, Nils (2007), Lungarella, M., Hrsg., "50 Jahre AI" (PDF) Festschrift , LNAI 4850 Springer, S. 9–17
- Russell, Stuart J .; Norvig, Peter (2003), Künstliche Intelligenz: Ein moderner Ansatz (2. Ausgabe), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2
- Searle, John (1980), "Minds, Brains and Programs" (PDF) Verhaltens- und Gehirnwissenschaften 3 (3): 417–457, doi: 10.1017 / S0140525X00005756, archiviert vom Original (PDF) am 2015-09-23
- Turing, Alan (Oktober 1950), "Computermaschinen und Intelligenz", Mind LIX (236): 433–460, doi: 10.1093 / mind / LIX.236.433, archiviert vom Original am 2008-07-02
No comments:
Post a Comment