De Turingtest is inmiddels een makkie voor ChatGPT. De nieuwste versie kan zelfs beter een gesprek voeren dan een mens zelf.
In een experiment waarbij deelnemers moesten raden wie een echt persoon was en wie een AI, werd GPT-4.5 in 73 procent van de gevallen als mens gekozen. Dat betekent dat het AI-model niet alleen de beroemde Turing-test doorstond, maar zelfs meer als mens werd beschouwd dan de daadwerkelijke menselijke deelnemer.
Onderzoekers van UC San Diego organiseerden meer dan duizend chatsessies waarin een menselijke beoordelaar moest bepalen met wie hij sprak: een mens of een AI. GPT-4.5 slaagde hier vooral in als het een specifieke persona kreeg: een jonge volwassene die sociaal wat onhandig was, slang gebruikte en af en toe typfouten maakte. Zonder deze persona werd het AI-model in slechts 36 procent van de gevallen als mens gezien, maar mét de juiste kenmerken steeg dat percentage naar 76 procent.
Uit de studie blijkt dat mensen zich niet zozeer baseren op inhoud of logische redeneringen, maar vooral op toon en stijl. De deelnemers vroegen nauwelijks feitelijke of cognitieve vragen om de mens te identificeren. In plaats daarvan lieten ze zich leiden door hoe natuurlijk iemand klonk. Reacties als "deze voelde echter aan" of "ze praatten op een natuurlijke manier" waren veelvoorkomende argumenten voor hun keuze.
Dit geeft een nieuwe kijk op de Turing-test. Waar die oorspronkelijk bedoeld was om te bepalen of een machine menselijk intelligent gedrag kon vertonen, laat deze studie zien dat sociale vaardigheden en emotionele herkenbaarheid minstens zo belangrijk zijn. AI presteerde niet door slimmer te zijn, maar door menselijker te lijken.
Deze ontwikkeling roept vragen op over hoe we menselijke interacties beoordelen. Als AI overtuigender overkomt dan echte mensen, wordt het moeilijker om feit van fictie te onderscheiden. Dit heeft grote gevolgen voor bijvoorbeeld onlinecommunicatie, klantenservice en zelfs politiek.
Bovendien wijst het onderzoek op een bredere trend: we beoordelen mensen niet alleen op hun intelligentie, maar vooral op hoe ze ons laten voelen. AI-modellen zoals GPT-4.5 kunnen hierop inspelen en op een ongekende manier sociaal vertrouwen winnen. Dit betekent niet dat ze echt empathie hebben, maar ze kunnen het wel perfect nabootsen.
De grens tussen mens en machine vervaagt daarmee steeds verder. De vraag is niet langer of AI een mens kan imiteren, maar of wij nog in staat zijn het verschil te zien.
Bron: Psychology Today