Kunstmatige intelligentie is nog lang niet "intelligent". Daar kwam een journalist op een vervelende manier achter.
De eerste keer dat je ChatGPT in actie zag, kun je je dat nog herinneren? Ik wel. Ik was met stomheid geslagen.
Er was "iets" dat met een korte opdracht meteen leesbare zinnen en redelijk zinnige teksten op mijn scherm kon toveren. Magisch.
Door die magie (die iedere dag ook nog eens beter wordt) lijken we soms te vergeten dat A.I. eigenlijk (nog) niet zo intelligent is. ChatGPT, Gemini en Claude zijn erg goed in kansberekening. Deze hulpjes schatten in welk woord logischerwijs op het vorige volgt.
En die werkwijze levert zo nu en dan een serieus probleem op.
Martin Bernklau, een Duitse journalist, werd onterecht beschuldigd van kindermisbruik door de AI-chatbot Copilot, schrijft de NOS.
Wat was het probleem?
Bernklau is rechtbankverslaggever en schreef veel artikelen over ernstige misdaden. Bij al die informatie over gruwelijke zaken werd zijn naam genoemd.
Et voila: volgens Copilot moest hij dan ook wel iets met al die misdaden te maken hebben.
Een intelligent persoon zou al lang hebben gezien dat hij een verkeerde associatie had gemaakt, maar dat geldt niet voor een A.I.-tool als Copilot.
Gelukkig is er zoveel publiciteit gekomen voor de rechtszaak die Bernklau aanspande, dat een tool als Perplexity inmiddels wél het juiste verhaal weet te vertellen (zie afbeelding). Maar het is jammer dat Bernklau zelf aan de slag moest om dat voor elkaar te krijgen.
Dus intelligent? Nee, nog niet. Een extra reden om antwoorden altijd te blijven checken.
Bron: Kunstmatige intelligentie beschuldigt onschuldige journalist van kindermisbruik (nos.nl)