Wann wird ein Computer den Turing-Test bestehen?
Alan Turing hat vor etwa 60 Jahren den sogenannten "Turing-Test" entworfen, mit dem er die Intelligenz von Computern einzuschätzen versuchte. Er meinte, dass es bis zum Jahr 2000 dauern würde, bis eine Maschine diesen Test in mindestens 70% aller Fälle bestehen würde. Der Test hat die Bedeutung, zu erfahren, wann ein Computer der Intelligenz eines Menschen zumindest ebenbürtig ist. Dass sich seine "Prophezeihung" noch nicht erfüllt hat, zeigt, dass die Komplexität von künstlicher Intelligenz sehr unterschätzt wird.
Nun zu dem Test selbst, für alle, die noch die davon gehört haben: Der Test läuft so ab, dass ein Mensch ohne Sicht- und Hörkontakt zwei unbekannten Gesprächspartnern irgendwelche zufälligen Fragen stellt. Bei den Gesprächspartnern handelt es sich dabei um einen Menschen und Maschine. Nun versuchen beide den Fragesteller davon überzeugen, dass sie menschlich wären. Wenn dieser den echten Menschen nach fünf Minuten nicht indentifizieren kann, dann hat der Computer den Turing-Test bestanden. Es haben zwar schon viele Maschinen diesen Test bestanden, allerdings nur bei einem geringen Prozentsatz der Versuche, der höchste bisher erreichte Prozentsatz war 25%. Ziel ist es, dass die Maschine den Turing-Test bei mind. 70% aller Testpersonen besteht. Wie lange meint ihr, wird das noch dauern?
Ich denke nicht, dass es an der Hardware liegt, dass dieser Test noch nicht bestanden wurde. Schließlich könnte man eine Menge Rechner vernetzen, wenn es nur auf die Rechenleistung ankommen würde. Ich denke, dass die Programmierung von künstlicher Intelligenz noch nicht weit genug voran geschritten ist. Alleine wie dämlich sich die KI oft in Computerspielen verhält, ist ein Anzeichen dafür, dass es hier noch sehr viel Potenzial nach oben gibt. Solange der Trend aber weiter so stark zu Onlinespielen geht, hält sich die kommerzielle Unterstützung der KI-Entwicklung natürlich in Grenzen. Nicht so, wie es in anderen Bereichen der Computertechnik war.
Ich vermute ähnlich, dass die fehlende Rechenleistung gar nicht das Problem ist. Es gibt genügend Projekte, wo Privatnutzer einen Teil ihrer Rechenleistung zur Verfügung stellen können, um schwierige Aufgaben lösen zu können. Soweit ich weiß wird dieses Verfahren in der Krebsforschung zum Teil genutzt, um komplexe Algorithmen schneller knacken zu können.
Das Problem der künstlichen Intelligenz liegt damit eindeutig bei der operierenden Software. Einstein sprach ja schon davon, dass der Mensch nur 5-6% der Gehirnkapazität nutze, er hingegen 7%. ![]()
Link dieser Seite https://www.talkteria.de/forum/topic-178366.html
Ähnliche Themen
Weitere interessante Themen
- Was fasziniert euch an amerikanischen Serien 3287mal aufgerufen · 16 Antworten · Autor: Federmäppchen · Letzter Beitrag von mittenimleben7
Forum: Film & Fernsehen
- Was fasziniert euch an amerikanischen Serien
- Ungerechte / ungleiche Freundschaft 1936mal aufgerufen · 5 Antworten · Autor: merlinda · Letzter Beitrag von Verbena
Forum: Alltägliches
- Ungerechte / ungleiche Freundschaft
- Shampoo Mousse besser als normales Shampoo? 2102mal aufgerufen · 2 Antworten · Autor: Nurse · Letzter Beitrag von bambi7
Forum: Fingernägel, Haut & Haare
- Shampoo Mousse besser als normales Shampoo?
- GM Aktien: jetzt wieder investieren? 1593mal aufgerufen · 1 Antworten · Autor: T. Patrick · Letzter Beitrag von Verbena
Forum: Geldanlage
- GM Aktien: jetzt wieder investieren?
- Pflanzen Krankheiten - Tipps zur Behandlung 1789mal aufgerufen · 1 Antworten · Autor: Käffchen2 · Letzter Beitrag von Verbena
Forum: Garten & Pflanzen
- Pflanzen Krankheiten - Tipps zur Behandlung
