El Siri de Amazon falla al confundir canción infantil con porno hardcore

El Siri de Amazon falla al confundir canción infantil con porno hardcore

Alexa, el asistente por voz de Amazon presente en el gadget Echo Dot, cometió su primer fallo viral: confundir una canción para niños con pornografía explícita.

En un video publicado en YouTube, un niño de unos tres años de edad le pide a Alexa que reproduzca la canción ‘Digger, Digger’.

Relacionado: El mercado sin filas de Amazon ya lo había inventado IBM… en 2006

Probablemente contaminada por todo lo sucio que hay en internet, los algoritmos de Alexa interpretaron la inocente petición del pequeño como una orden para encontrar una playlist de Amazon conformada por ringtones sexuales.

Al percatarse los padres que Alexa estaba a punto de disparar todos los resultados pornográficos que encontró en internet frente a su hijo, estos, alarmados, le ordenaron que se detuviera.

Mira el hilarante momento en que Alexa comete su primer error viral al (casi) arruinar la navidad de un muy joven usuario.

También te interesará: El CEO de Amazon felicitó a Trump y las acciones de su empresa van en picada



Selección editorial

© 2023 Prowell MediaTodos los derechos reservados