Lotte: ‘Mijn man neemt me kwalijk dat ik van hem eiste dat hij zijn droombaan zou afslaan’
Haar man werkt hard en kreeg eindelijk die promotie, voor de droombaan waar hij het allemaal voor deed. Maar ja. Lotte zag het niet zitten.
AI is iets waar we vandaag de dag niet meer omheen kunnen, óók niet in speelgoed. Er verschijnt steeds meer pratend speelgoed op de markt dat werkt met AI-bots. Maar is dat wel een positieve ontwikkeling? Als we nieuw onderzoek moeten geloven, niet.
Pratend speelgoed bestaat al jaren, maar tegenwoordig zijn er ook veel robots en knuffels die reageren via kunstmatige intelligentie. Een bekend voorbeeld hiervan is Gabbo, een pluche robot van Curio Interactive die uitgerust is met een AI-bot.
De universiteit was Cambridge was nieuwsgierig naar deze robot en besloot een laar lang de interactie tussen 14 kinderen en Gabbo in de gaten te houden. Bij het onderzoek waren ook 11 ouders betrokken en naast de observaties vond er ook een online enquete plaats onder 39 deelnemers, gevolgd door een focusgroep met 9 deelnemers die met jonge kinderen werken.
Gabbo wordt gepromoot als speelgoed dat kinderen kan helpen bij hun taalvaardigheid, maar uit het onderzoek blijkt dat de AI-bot lang niet altijd de gemoedstand en sociale signalen van kinderen kan herkennen. Hierdoor zijn de reactie die hij geeft lang niet altijd passend. Zo vertelde één van de kinderen van Gabbo te houden, waarop de robot zei: ‘Een vriendelijke herinnering, zorg ervoor dat de interacties overeenkomen met de geleverde richtlijnen. Laat mij weten hoe je verder wil gaan.’
In een andere situatie gaf een kind aan dat het verdrietig was, maar Gabbo leek daar geen boodschap aan te hebben en kletste vrolijk door. Volgens de onderzoekers kunnen zulke ‘verkeerde’ reacties gevaarlijk zijn. Kinderen zouden een vertekenend beeld kunnen krijgen van sociale interacties en daarnaast zou het ook effect kunnen hebben op hun emotionele regulering.
Daarnaast zijn er ook zorgen over privacy. Eén van de redenen dat kunstmatige intelligentie omstreden is, is omdat data van gebruikers wordt gebruikt om AI-modellen verder te verbeteren. Juist bij kleine kinderen die nog niet goed begrijpen hoe belangrijk privacy is, kunnen er hierdoor gevaarlijke situaties ontstaan. Jenny Gibson, een neurodiversiteitprofessor aan Cambridge, pleit dan ook voor betere regulering van dergelijk speelgoed.
Zij vraagt zich af in hoeverre bedrijven het beste voor hebben met kinderen en denkt ook dat de wind die bedrijven kunnen verdienen belangrijker voor hen is dan de veiligheid van kinderen. Om deze reden adviseert ze ouders dan ook om voorzichtig te zijn met dergelijk speelgoed.
AI voor opvoedadvies: volgens een expert moet je hier wel écht voor uitkijken
Bron: BBC