Definitiv.
Das größte Problem ist eigentlich, dass der Turing-Test nicht eindeutig definiert ist. Wie lang muss die Unterhaltung sein (je kürzer desto einfacher)? Wie gut kennt sich der menschliche Interviewer mit KI aus (viele Nicht-Experten würden schon jetzt eine KI nicht vom Menschen unterscheiden können)? Wie klug soll der Mensch sein, den die KI vortäuscht (wenn die KI so tut als wäre sie ein kleines Kind, dann ist der Test sehr einfach)?
Der berühmte Fall von Blake Lemoine bei Google zeigt meiner Meinung nach allerdings, dass wir auch im Falle der schwierigen Versionen des Turing-Tests bald soweit sind.
Ich denke auch, dass der Test einmal bestanden werden kann. KI-Modelle, die die natürliche Sprache von Menschen imitieren, sind zum Teil jetzt schon ziemlich gut.
Falls ihr das Beispiel von Google noch nicht kennt, das Alexander erwähnt hat, gibt es hier einen kurzen Artikel dazu:
Kommentare