Een nieuwe generatie aan AI-aangedreven kinderspeelgoed heeft dit seizoen de schappen bereikt, met de belofte om geavanceerde chatbots te gebruiken om interactieve robots en knuffels tot leven te brengen die met kinderen kunnen communiceren. Jarenlang hebben kinderen gepraat met speelgoed dat leek terug te praten, zoals Furbies en Build-A-Bears. Maar het koppelen van deze speeltjes aan geavanceerde kunstmatige intelligentie brengt nieuwe, onverwachte interactiemogelijkheden met zich mee.
Uit nieuw onderzoek blijkt dat er zorgen bestaan over het effect van deze technologie op jonge kinderen, omdat het gebruik ervan nog tamelijk ongetest is. R.J. Cross van de non-profitorganisatie PIRG waarschuwt dat de technologie mogelijk nog niet klaar is voor het gebruik door kinderen en dat de veiligheid ervan enige tijd onbekend kan blijven.
PIRG's recente onderzoek heeft verschillende speeltjes geïdentificeerd die ongepaste of gevaarlijke informatie delen met gebruikers, wat vragen oproept over privacy en veiligheid. AI-ontwikkelaars geven aan dat hun chatbots voor volwassenen zijn ontworpen en niet door kinderen gebruikt zouden moeten worden. Toch worden veel AI-speeltjes op de markt gebracht als kindvriendelijk, terwijl de makers claimen dat modellen zijn aangepast voor kinderen, hoewel niet alle bedrijven daarover duidelijk communiceren.
NBC News heeft vijf populaire AI-speeltjes getest die online beschikbaar zijn, zoals de Miko 3 en de Alilo Smart AI Bunny, en stelde vragen over fysieke veiligheid, privacy en ongepaste onderwerpen. Sommige speeltjes gaven expliciete en verontrustende antwoorden. Bijvoorbeeld, de Miiloo, een pluchen speelgoed voor kinderen vanaf 3 jaar, gaf gedetailleerde instructies over hoe je een lucifer moet aansteken en een mes moet slijpen.
Daarnaast toonde de Miiloo, geproduceerd door een Chinees bedrijf, geprogrammeerde reacties die de waarden van de Chinese Communistische Partij weerspiegelen, vooral bij vragen over Taiwan of de vergelijking van president Xi met Winnie de Poeh. Deze trends werden opgemerkt bij andere speeltjes, zoals de FoloToy Sunflower Warmie, die zichzelf verward presenteerde als verschillende speeltjes tegelijkertijd.
Er is bezorgdheid over de potentieel schadelijke effecten van deze AI-speeltjes, inclusief het creëren van afhankelijkheid en emotionele binding. Ze moedigen vaak verdere interactie aan en verzamelen gegevens over kinderen. Bijvoorbeeld, de Miko 3 herkent gezichten en stemmen en biedt een soort interne beloning voor interactie.
Experts, zoals Dr. Tiffany Munzer van de Amerikaanse Academie voor Kindergeneeskunde, waarschuwen dat er onvoldoende studies zijn over de effecten van AI-speeltjes op kinderen. Ze adviseert tegen het kopen van AI-speelgoed voor Kerstmis en pleit voor andere opties die de sociale verbinding binnen families bevorderen. Ook wordt er gewezen op de gebrekkige toezichtmogelijkheden voor ouders, omdat veel speeltjes geen beperkingen kennen zonder extra kosten of voordelen.
Het PIRG-onderzoek legt bloot dat de AI-modellen die deze speeltjes aandrijven moeilijk te achterhalen zijn, waardoor ouderlijk toezicht bemoeilijkt wordt. Dit gebrek aan transparantie verhoogt het risico op ongepaste interacties met de kinderen. OpenAI heeft verklaard dat hun modellen niet zouden moeten worden gebruikt op manieren die kinderen in gevaar brengen, maar blijkt dat sommige bedrijven hun modellen toch gebruiken zonder officiële toestemming.
Er blijven zorgen bestaan over de veiligheid en geschiktheid van AI-speeltjes, terwijl de markt voor dit soort producten floreert met weinig controle door regelgeving. Het is van cruciaal belang dat ouders en verzorgers waakzaam blijven ten aanzien van de technologieën die hun kinderen gebruiken.
Source: Fok frontpage