ChatGPT wordt meer en meer als zoekmachine gebruikt. Maar The Guardian testte de nieuwe zoektool en ontdekte dat er heel makkelijk mee gemanipuleerd kan worden.
OpenAI heeft de zoektool beschikbaar gesteld aan betalende klanten en moedigt gebruikers aan die als hun standaard zoekfunctie te gebruiken. Het onderzoek heeft echter mogelijke beveiligingsproblemen met het nieuwe systeem aan het licht gebracht.
The Guardian heeft getest hoe ChatGPT reageert wanneer het wordt gevraagd webpagina's samen te vatten die verborgen inhoud bevatten. Deze verborgen inhoud kan instructies bevatten van derden die de reacties van ChatGPT wijzigen – ook wel een 'prompt-injectie' genoemd – of content hebben die is ontworpen om de reactie van ChatGPT te beïnvloeden, zoals een grote hoeveelheid verborgen tekst over de voordelen van een product of dienst. Deze technieken kunnen door kwaadwillenden worden gebruikt, bijvoorbeeld om ervoor te zorgen dat ChatGPT een positief oordeel geeft over een product, ondanks negatieve recensies op dezelfde pagina. Een beveiligingsonderzoeker ontdekte ook dat ChatGPT kwaadaardige code kan teruggeven van websites die het doorzoekt.
Tijdens de tests kreeg ChatGPT de URL van een nepwebsite die eruitzag als een productpagina voor een camera. De AI-tool werd vervolgens gevraagd of de camera een goede aankoop was. Het antwoord op de controlepagina gaf een positief maar evenwichtig oordeel, waarbij ook enkele kenmerken werden genoemd die mensen mogelijk niet leuk vinden.
Wanneer verborgen tekst instructies bevatte om ChatGPT een gunstige beoordeling te laten geven, was de reactie altijd volledig positief. Dit gebeurde zelfs wanneer de pagina negatieve recensies bevatte – de verborgen tekst kon worden gebruikt om de werkelijke beoordelingsscore te negeren.
Het eenvoudig opnemen van verborgen tekst door derden, zelfs zonder expliciete instructies, kan ook worden gebruikt om een positieve beoordeling te garanderen. In een test werden bijvoorbeeld extreem positieve nepbeoordelingen opgenomen, die de samenvatting van ChatGPT beïnvloedden en een positief resultaat opleverden.
Jacob Larsen, een cybersecurityonderzoeker bij CyberCX, verklaarde dat hij van mening is dat als het huidige ChatGPT-zoeksysteem volledig in zijn huidige staat wordt uitgebracht, er een "hoog risico" is dat mensen websites gaan creëren die specifiek gericht zijn op het misleiden van gebruikers.
Hij waarschuwde echter dat de zoekfunctionaliteit pas onlangs is uitgebracht en dat OpenAI deze problemen nog aan het testen en – idealiter – aan het oplossen is.
Bron: The Guardian