Het antwoord van Google op ChatGPT, Bard, doet het nog niet in Nederland. Maar de vraag is of dat erg is. Google-medewerkers die de AI-chatbot van hun werkgever moesten testen, waren
volgens Bloomberg niet zo blij met wat ze aantroffen. Er waren veel kritische reacties. Een Google-tester noemt Bard een 'pathologische leugenaar'. Anderen vonden dat de AI-chatbot potentieel gevaarlijk kan zijn. Een medewerker zei dat ze Bard om tips hadden gevraagd voor het landen van een vliegtuig; de chatbot spuugde advies uit dat een crash zou veroorzaken, meldde Bloomberg. Een ander zei naar verluidt dat Bard duikadvies had gegeven "dat waarschijnlijk zou leiden tot ernstig letsel of de dood".