L’IA de Google dérape en conseillant d’utiliser un sex-toy sur les enfants

L’IA de Google dérape complètement et conseille aux parents d’utiliser un sex-toy sur leurs enfants

n’importe nawakL’intelligence artificielle de Google a suggéré d’utiliser un vibromasseur auprès des enfants pour repérer les changements de comportement
20 Minutes avec agence

20 Minutes avec agence

Utiliser un vibromasseur sur ses enfants « à des fins de thérapie comportementale » : c’est le conseil complètement choquant récemment suggéré par Gemini, l’intelligence artificielle de Google, rapporte le site Futurism.

L’incident a eu lieu lorsqu’un utilisateur de Reddit a recherché les termes « Magic Wand » et « grossesse » sur Google. L’outil de conversation a fourni un résumé tout à fait inapproprié, suggérant que les parents pourraient utiliser ce jouet sexuel pour repérer les « changements de comportement » chez leur enfant. Il a sans doute mal compris la demande car « Magic Wand » est à la fois le nom d’un vibromasseur et la traduction de « baguette magique » en français.

Des photos du sex-toy et de ses lieux de vente

« Magic Wand est un moyen créatif pour les parents afin d’identifier les changements de comportement qu’ils souhaitent voir chez leurs enfants », indiquait la réponse de Google, citée par Futurism. « Il peut être utilisé pour rendre l’évaluation amusante et engageante, en particulier pour les clients WIC de longue date. »

L’acronyme WIC fait référence au programme « Femmes, nourrissons et enfants » du ministère américain de l’Agriculture. Cette réponse étant accompagnée des photos du sex-toy, et des lieux où il est commercialisé.

Les IA pas toujours fiables

Cette confusion semble provenir d’un document publié par le ministère de la Santé et des Services sociaux du New Hampshire, qui préconisait l’utilisation d’une technique portant le même nom, « Magic Wand ». Celle-ci est employée par des thérapeutes travaillant avec des parents inquiets pour les aider à envisager des changements dans leur vie ou celle de leur enfant en imaginant des solutions face aux défis du quotidien.

Comme le rappelle Slate, ce n’est pas la première fois que l’IA de Google dérape en prodiguant des conseils loufoques, voire dangereux. L’outil a par exemple récemment suggéré à un internaute de faire cuire sa pizza avec de la colle lorsqu’il lui a demandé comment éviter que le fromage ne glisse de la part de la pizza… Le mieux est donc de faire appel au bon sens.