REDMOND (ANP/BLOOMBERG) - Microsoft wil het moeilijker maken voor mensen om chatbots met kunstmatige intelligentie (AI) ongepaste opdrachten te geven. Daarvoor heeft het techbedrijf nieuwe veiligheidsfuncties ontwikkeld, die donderdag bekendgemaakt zijn.
De nieuwe tools worden ingebouwd in het systeem Azure AI Studio, dat wordt aangedreven door het platform OpenAI. Hiermee kunnen ontwikkelaars aangepaste AI-assistenten bouwen met behulp van hun eigen gegevens.
Volgens Microsoft zijn de tools ontworpen om opzettelijke pogingen om AI te misleiden en kwaadaardige instructies te detecteren en te blokkeren. Zo moeten ongeoorloofde acties zoals het stelen van gebruikersgegevens of het kapen van systemen, worden voorkomen. Microsoft introduceert ook een functie die gebruikers waarschuwt wanneer een model dingen verzint of foutieve antwoorden genereert.