Die Frage, ob ein Computer denken kann und woran man das erkennen würde, wird seit Beginn des Computerzeitalters diskutiert. Alan Turing schlug den nach ihm benannten Turing-Test vor, demzufolge eine Maschine als denkend gelten soll, wenn ein Mensch, der mit ihr kommuniziert, sie für einen Menschen hält. Ein verbindliches Kriterium gibt es bis heute nicht.
Einführung
Die menschliche Intelligenz dient seit jeher als Vorbild für die Entwicklung künstlicher Intelligenz (KI). Die KI-Forschung verfolgt dabei eine doppelte Zielsetzung: Einerseits sollen intelligente Maschinen gebaut werden, andererseits soll der Computer als Modell dienen, um menschliche Intelligenz besser zu verstehen. Diese Analogie zwischen Gehirn und Computer ist jedoch komplex und vielschichtig.
Die Analogie zwischen Gehirn und Computer
Auf einer grundlegenden Ebene gibt es durchaus Parallelen zwischen Gehirn und Computer. So steuert der Computer Maschinen, während das Gehirn den menschlichen Organismus kontrolliert. In beiden Systemen werden Wahrnehmungen ausgewertet und Aktivitäten geplant und gesteuert. Der Speicher des Computers dient der Datenhaltung, während im Gedächtnis Erinnerungen gespeichert werden. Die Neuronen des Gehirns kommunizieren über elektrische Signale, ähnlich wie die Schaltkreise des Computers Strom leiten oder nicht.
Grobe Vereinfachung
Bei genauerer Betrachtung erweist sich die Analogie jedoch als grobe Vereinfachung. Im Gehirn gibt es keinen zentralen Taktgeber, die Prozesse werden nicht nacheinander abgearbeitet wie in einem herkömmlichen Rechner. Daten werden nicht zwischen Arbeitsspeicher und Prozessor hin- und hergeschaufelt. Das Gehirn kennt keine fertigen Programme und keinen Unterschied zwischen Hardware, Software und Daten. Neuronen sind viel komplexer als Transistoren und kommunizieren neben elektrischen auch chemische Signale, die von Hormonen beeinflusst werden. Das Gehirn ist zudem deutlich fehlertoleranter als der Computer und verbraucht im Vergleich zu Superrechnern, die so viel Energie wie eine Kleinstadt benötigen, nur die Energie eines Butterbrots.
Neuromorphe Computer
Neuromorphe Computer nähern sich zwar der Arbeitsweise des Gehirns an, erreichen aber dessen Komplexität nicht. Je besser Forscher das Gehirn verstehen, desto deutlicher wird, wie sehr der Vergleich hinkt.
Lesen Sie auch: Faszination Nesseltiere: Wie sie ohne Gehirn leben
Mittlere Abstraktionsebene
Forscher vergleichen Gehirn und Computer auf einer mittleren Abstraktionsebene. Es geht nicht darum, Neuron für Neuron nachzubauen, sondern um die Prinzipien der Intelligenz, um Regeln, die „plattformneutral“ realisiert werden können, sei es aus Neuronen, Siliziumchips oder leeren Blechbüchsen. Eine komplette Beschreibung des menschlichen Gehirns wäre so komplex, dass sie niemand verstehen würde.
Spezialisten statt Alleskönner
Die KI-Forschung hat inzwischen zahlreiche Wege gefunden, Systeme zu bauen, die anders funktionieren als das menschliche Denken und dennoch in der Lage sind, Texte zu übersetzen oder den Weltmeister im Go-Spiel zu schlagen. Allerdings sind alle diese Systeme Spezialisten und im Vergleich zur menschlichen Intelligenz unflexibel.
Der Körper als entscheidender Faktor
Die Annahme, Intelligenz sei ein körperloses Phänomen, könnte falsch sein. Alan Turing mutmaßte bereits in den 1950er Jahren, es könne nötig sein, einen Roboter wie ein Kind zu unterrichten, um eine intelligente Maschine zu bekommen. Das Denken ist als eine überlebensdienliche Funktion in Organismen entstanden.
4E-Cognition
Der Forschungszweig der 4E-Cognition berücksichtigt die verkörperte (embodied), eingebettete (embedded), ausgedehnte (extended) und aktive (enactive) Natur der Intelligenz. Der Körper bestimmt, welche Sinneswahrnehmungen möglich sind und wie sie verarbeitet werden können, Emotionen beeinflussen Denken und Handeln. Der Mensch lebt in einer Umwelt, die ihn zum Beispiel an Dinge erinnert, die er sich nicht selbst merken muss, und in der sich Mitmenschen befinden, die ebenfalls Einfluss auf das Denken, Planen, Wollen und Tun haben.
Bewusstsein und Moral
Bewusstsein und Selbstbewusstsein haben sich als die größten Herausforderungen bei dem Versuch erwiesen, die menschliche Intelligenz nachzubauen. Könnte ein künstliches System im Prinzip zu Bewusstsein kommen? Thomas Metzinger hält dies nicht für unmöglich, aber auch nicht für wünschenswert, da mit dem Bewusstsein die Leidensfähigkeit einhergeht.
Lesen Sie auch: Lesen Sie mehr über die neuesten Fortschritte in der Neurowissenschaft.
An der Frage nach dem Bewusstsein hängt auch die Frage nach der Moral der Maschinen. Können Computer moralisch sein? Wesen ohne Bewusstsein können keine Moral in unserem Sinne haben. Aber kann man Maschinen dennoch dazu bringen, sich moralisch zu verhalten? Viele Forschungsgruppen befassen sich derzeit mit diesem Unterfangen. Das Problem dabei: Entweder muss die Moral in klare Regeln gefasst werden, wie es Isaac Asimov mit seinen Robotergesetzen versucht hat, oder man lässt die Systeme lernen. Anhand welcher Daten Algorithmen moralische Entscheidungen lernen könnten, ist allerdings noch nicht recht klar.
Neuromorphe Computer: Das Gehirn als Vorbild für die nächste Generation von Chips
Das menschliche Gehirn dient Physikern als Vorbild, um neuartige Computerarchitekturen zu entwickeln. Diese sogenannten neuromorphen Systeme versprechen gegenüber klassischen Rechnern eine höhere Energieeffizienz und Leistungsfähigkeit bei bestimmten Aufgaben.
Funktionsweise des Gehirns
Das menschliche Gehirn besteht aus etwa 100 Milliarden Nervenzellen (Neuronen), die durch Billionen von synaptischen Verbindungen miteinander verknüpft sind. Im Vergleich zu herkömmlichen Computern arbeitet das Gehirn langsam, dafür aber massiv parallel und äußerst energieeffizient.
Vorteile neuromorpher Systeme
- Fehlertoleranz: Das Gehirn kann mit fehlerhaften Komponenten arbeiten, während ein einziger defekter Transistor in einem Mikroprozessor das gesamte System lahmlegen kann.
- Abstraktionsfähigkeit: Das Gehirn kann aus Erfahrungen abstrahieren und diese auf neue Situationen anwenden, während Computer lediglich Algorithmen ausführen und nur solche Probleme lösen können, die der Programmierer in der Software vorgesehen hat.
- Energieeffizienz: Das Gehirn verbraucht nur etwa 20 Watt, während ein Laptop mindestens 100 Watt und Supercomputer mehrere Megawatt benötigen.
Neuronale Netze
Wissenschaftler versuchen seit vielen Jahrzehnten, die Gehirnschaltkreise in synthetischen Modellen nachzubilden. Bei diesen neuronalen Netzen steckt die Information in der Stärke der synaptischen Verbindung zwischen Nervenzellen. Durch Veränderung dieser Stärke können Informationen gespeichert und verarbeitet werden, zum Beispiel für Texterkennung oder Gesichtserkennung.
Liquid Computing
Eine alternative Theorie zur Speicherung von Kurzzeitinformationen ist das „Liquid Computing“. Demnach steckt die Information in der Feueraktivität des Netzwerks. Die Membran der Nervenzellen fungiert dabei als Kondensator, der die eingehenden elektrischen Pulse speichern kann.
Lesen Sie auch: Tinnitus und Gehirnaktivität: Ein detaillierter Einblick
Physikalische Modelle neuronaler Schaltkreise
Forscher bauen physikalische Modelle von neuronalen Schaltkreisen nach, um die verschiedenen Theorien zur Informationsspeicherung überprüfen zu können. Im einfachsten Modell imitieren elektrische Kondensatoren und Widerstände die Neuronen, während hinein- und hinausfließende Ströme als erregende und hemmende Synapsen agieren.
Neuromorphe Systeme als Experimentalplattform
Diese neuromorphen Systeme lassen sich ebenso anregen wie biologische Systeme, doch im Gegensatz dazu können die Forscher in den nachgebauten Systemen gezielt bestimmte Parameter verändern und die resultierenden Aktivitätsmuster auslesen. Die Systeme sind nicht vorbestimmt in ihrer Funktionalität und können für Experimente mit dem Hörsystem von Eulen, dem Geruchssystem von Insekten oder für abstrakte Experimente wie das „Liquid Computing“ verwendet werden.
Beschleunigte Zeitkonstanten
Die physikalischen Modelle reagieren viel schneller als die Biologie, momentan 10.000-mal schneller. Dadurch können zeitabhängige Prozesse, wie Lern- und Entwicklungsprozesse, im Zeitraffer untersucht werden.
Das Human Brain Project
Im Rahmen des Human Brain Projects soll die neuartige Computerarchitektur weiterentwickelt werden. Ziel ist es, neue medizinische und neurowissenschaftliche Einblicke in das Gehirn und seine Erkrankungen zu erhalten, aber auch innovative Computer- und Robotiktechniken zu entwickeln.
Anwendungsbereiche außerhalb der Biologie
Neuromorphe Systeme könnten auch außerhalb der Biologie angewendet werden, zum Beispiel für neuartige Wettervorhersagen.
TrueNorth: Ein von neuronalen Strukturen inspiriertes System
TrueNorth ist ein rekonfigurierbarer Chip mit 1 Million Neuronen und 256 Millionen Synapsen, der von den neuronalen Strukturen des Gehirns inspiriert wurde. Er zeichnet sich durch eine geringe Leistungsaufnahme von 70 mW aus und könnte eine leistungsfähige Ergänzung in der Entwicklung von Exascale-Computern der nächsten Generation sein.
Software-Ecosystem
Für den neuronalen Prozessor wurde ein Software-Ecosystem entwickelt, bestehend aus Simulator, einer Programmiersprache und einer integrierten Programmierumgebung. Dieses Ecosystem wird in über 40 Universitäten, Regierungsinstitutionen und nationalen sowie Firmenlabors genutzt.
Deep Learning und neuromorphes Computing
Es kommt darauf an, die beiden komplementären Computer-Revolutionen Deep Learning und neuromorphisches Computing zusammenzubringen. Deep Learning konzentriert sich auf die Applikations-Performance und -Genauigkeit, während neuromorphisches Computing Energie-, Volumen, Geschwindigkeitseffizienz und Skalierbarkeit in den Mittelpunkt stellt.
Inkompatibilitäten zwischen Deep Learning und TrueNorth
Es gibt einige Inkompatibilitäten zwischen Deep Learning und TrueNorth, zum Beispiel bei der Genauigkeit der Eingangssignale und der Arbeitsweise der Neuronen und Synapsen.
Neuromorphe Chips: Ein Paradigmenwechsel in der Informatik
Neuromorphe Chips sind eine revolutionäre Neuschöpfung der Computertechnik. Sie unterscheiden sich grundlegend von herkömmlichen Computern, da sie ähnlich arbeiten wie das menschliche Gehirn. Sie sind besonders gut geeignet für Aufgaben wie maschinelles Lernen, Bildverarbeitung und autonome Systeme.
Von-Neumann-Flaschenhals
Klassische Computerarchitekturen setzen auf eine strikte Trennung von Speicher und Prozessor (Von-Neumann-Flaschenhals). Dies begrenzt die KI-Performance, weil aktuelle Beschleunigerchips zunehmend an ihre Grenzen bei der Verarbeitung riesiger Datenmengen stoßen.
Neuromorphe Chips als vielversprechende Option
Neuromorphe Chips sind eine vielversprechende Option, um einige wichtige Probleme besser zu lösen als klassische Rechensysteme. Sie nutzen analoge Signale, um die elektrischen Eigenschaften von Synapsen, Neuronen, Axonen und Dendriten nachzuahmen.
Memristoren als wichtiger Schritt
Ein wichtiger Schritt in der Entwicklung neuromorpher Chips war die Verwendung von Memristoren. Diese Bauelemente speichern ihren Widerstandswert basierend auf vorherigen Spannungen und ahmen damit die Funktion von Synapsen direkt nach.
Neuronale Plastizität
Das Gehirn lernt durch die Anpassung von neuronalen Verbindungen, ein Prozess, der als neuronale Plastizität bekannt ist. Dabei spielt die Signalübertragung in den Synapsen eine entscheidende Rolle.
Energieeinsparung
Neuromorphe Chips bieten das Potenzial für erhebliche Energieeinsparungen im Vergleich zu herkömmlichen Computern und sogar zu GPUs. Dies liegt daran, dass sie speziell für den Einsatz neuronaler Netze entwickelt wurden und daher effizienter arbeiten.
Übergang von Software- zu Hardware-basierten Strukturen
Die Hauptmotivation für die Entwicklung neuromorpher Chips ist der Übergang von Software- zu Hardware-basierten Strukturen in der KI. Im Gegensatz zu konventionellen Computern und GPUs sind sie von der Struktur und Funktionsweise her dem menschlichen Gehirn nachempfunden.
Bestandteile neuromorpher Chips
- Künstliche Neuronen: elektronische Einheiten, die Informationen empfangen, verarbeiten und weiterleiten.
- Elektronische Synapsen: Verbindungen zwischen Neuronen, die die Gewichtung von Signalen ändern können.
- Axonen und Dendriten: Leiterbahnen, die die Übertragung von Signalen zwischen Neuronen ermöglichen.
Optoelektronische Synapsen und atomare Schalter
Optoelektronische Synapsen nutzen Licht, um die Verbindung zwischen künstlichen Neuronen zu modulieren, was das Potenzial für hohe Geschwindigkeiten und einen geringen Energieverbrauch bietet. Atomare Schalter basieren auf der Bewegung einzelner Atome, um elektrische Widerstände zu verändern, und haben das Potenzial, die Miniaturisierung von neuromorphen Chips voranzutreiben.
CPU vs. HDD/SSD: Wer ist das Gehirn des Computers?
Die Frage, ob die Festplatte (HDD) oder der Prozessor (CPU) das Gehirn eines Computers ist, wird oft diskutiert. Während die Festplatte als eine Art Gedächtnis fungiert, das Daten dauerhaft speichert, kümmert sich die CPU um die Informationsverarbeitung.
Die CPU als Zentralantrieb
Am ehesten kommt der Rolle "Hirn des PCs" die CPU zu, da ein Computer in der Regel nicht prozessorlos verwendet werden kann.
Die SSD als performante Alternative zur HDD
SSDs haben sich als performante Alternative zu HDDs durchgesetzt und arbeiten deutlich schneller.
Das Motherboard als Herz des Computers
Für die Herzrolle kommt das Motherboard infrage, da es diverse Computerkomponenten aufnimmt und verbindet.