contador gratis Saltar al contenido

8 Resonante Epicfail de Inteligencia Artificial

marzo 25, 2020

Errar ya no es solo humano, porque incluso las máquinas cometen errores, ¡y cómo lo hacen! Aquí 8 AI EpicFail, inteligencia artificial

Errar ya no es solo humano, porque incluso las máquinas cometen errores, ¡y cómo lo hacen! Aquí 8 AI EpicFail, inteligencia artificialLa inteligencia artificial se está infiltrando lentamente en todos los aspectos de nuestro mundo, desde las empresas hasta la educación, los gobiernos e incluso nuestros hogares. Aunque el aumento de la inteligencia artificial ha hecho la vida más eficiente, este sistema no es inmune a cometer errores ocasionales. A pesar de que la IA tiene el propósito de resolver nuestros problemas, a veces crea otros nuevos. En agosto de 2016, Facebook reemplazó a los editores de su sección de tema "tendencia" con un algoritmo después de enfrentar varias acusaciones de parcialidad política. En cuestión de días, el algoritmo construyó una historia que afirmaba que Megyn Kelly había sido despedida de Fox News por su apoyo a Hillary Clinton. Los autos sin conductor también se basan en IA. Tesla tuvo que enfrentar controles por parte de las autoridades competentes debido a accidentes de tránsito que ocurrieron mientras los conductores usaban el modo de piloto automático, "uno de los cuales fue fatal.

Estos episodios, así como otros, nos recuerdan que no siempre podemos confiar en la tecnología; por otro lado, sería injusto negar a AI que ofreciera historias benévolas y, a veces, incluso humorísticas. Veamos juntos los 8 casos más llamativos, a saber, las fallas de la IA.1. Escuchar algunas noticias provoca que los dispositivos Amazon Alexa hagan que una niña compre galletas y juguetes.No es raro que los niños compren artículos sin el permiso de los padres y con dispositivos activados por voz como Amazon Alexa, los padres deben ser cada vez más cautelosos. A principios de este año, una niña de 6 años llamada Brooke Neitzel ordenó una casa de muñecas por valor de $ 170 y cuatro libras de galletas a través de Amazon Alexa, simplemente, preguntando por Alexa por estos productos. Después de recibir la confirmación de sus últimas compras, la madre de Brooke, Megan, entendió de inmediato lo que había sucedido y la mujer decidió donar la casa de muñecas a un hospital local y agregar control parental a Alexa.Alexa falla épica inteligencia artificial Ai

2. Control robótico de pasaportes, rechaza la entrada a un asiático porque en la foto de identificación tenía los ojos cerrados.Después de intentar renovar su pasaporte, Richard Lee, un hombre de 22 años de ascendencia asiática, fue rechazado por el Departamento de Asuntos Internos de Nueva Zelanda tras una decisión de software, una decisión justificada por el hecho de que tenía los ojos cerrados. nellimmagine. El software de reconocimiento facial luego rechazó las fotos de Lee, quien tuvo que ponerse en contacto con la oficina de personal para poder hablar con un ser humano y así obtener la validación del nuevo pasaporte. Resultó que ni un solo caso, de hecho, el 20% de las fotos de pasaporte presentadas son rechazadas debido a errores de software. Afortunadamente, Lee tomó el rechazo a la ligera y comentó: ?El episodio terminó sin rencor de mi parte. Siempre he tenido ojos muy pequeños y tecnología de reconocimiento facial nueva y sofisticada. Fue un error de robot y no una discriminación.

3. Alexa transmite pornografía en lugar de canciones infantiles.Los niños parecen divertirse mucho con asistentes activados por voz como Amazon Alexa, tal vez incluso demasiado. Cuando un niño le pidió a Alexa que tocara su canción favorita, "Digger, Digger", Alexa escuchó algo más. En respuesta a la solicitud, dijo: "¿Quieres escuchar una estación de pornografía? Luego agregue las claves de búsqueda como: chica – aficionada – chica sexy. La mente sucia de Alexa no se detuvo allí y pasó a enumerar una gran cantidad de términos pornográficos frente al niño. El incidente fue incluso filmado.4. Un supuesto robot bebé se vuelve loco y hiere a un adolescente.En la Feria China de Alta Tecnología en Shenzhen, un robot llamado Xiao Pang, seudónimo de "un poco gordo", atacó una cabina de observación e hirió a un niño. Después de que Xiao Pang se estrellara repetidamente contra una cabaña, causando salpicaduras de vidrio en todas partes, un niño sufrió cortes y fue llevado al hospital en ambulancia. Afortunadamente, el daño fue mínimo y la víctima recibió solo unos pocos puntos. El robot, por otro lado, que fue diseñado para interactuar con niños de 4 a 12 años y mostrar emociones faciales en su pantalla, parecía estar frunciendo el ceño después del accidente, según testigos.

5. Un robot juzga un concurso de belleza y no selecciona mujeres de piel oscura.Partiendo de prácticas injustas para presionar a los competidores jóvenes, los concursos de belleza a menudo enfrentan juicios del público y de los críticos. Con el fin de contrarrestar la mala reputación que disfrutan en general, el concurso internacional de belleza Beauty decidió realizar su evento en línea, utilizando una máquina como juez. El algoritmo de la máquina debería haber examinado la simetría de la cara e identificado ambas arrugas que los lugares para encontrar competidores que mejor representaban la "belleza humana" y el algoritmo no favorecían a las mujeres con piel oscura. 6,000 personas de países de todo el mundo presentaron sus fotos y se anunciaron los 44 ganadores, entre los cuales solo uno tenía la piel oscura.falla épica inteligencia artificial Ai6. El chatbot de Microsoft en Twitter se vuelve antifeminista y pro Hitler.El racismo parece ser un problema bastante extendido con la IA. En marzo de 2016, Microsoft presentó su chatbot de IA para Twitter llamado "Tay" con el fin de experimentar con la comprensión conversacional. Se suponía que Tay debía hablar con la gente y volverse más inteligente cuando entablaba conversación. Pero la gente comenzó a twittear con comentarios groseros, racistas e inapropiados al bot. Al aprender de la conversación, Tay comenzó a usar el mismo idioma. En cuestión de horas, este experimento se convirtió en una ofensiva vulgar y pro Hitler, refiriéndose al feminismo como una "secta" o un "cáncer" y mucho más.

Alexa falla épica inteligencia artificial Ai

7. Google Brain convierte los retratos de baja resolución en monstruos pixelados.En un intento por mejorar las imágenes de píxeles de baja resolución, Google Brain ha convertido algunas fotos de retratos en monstruos parecidos a las personas. A pesar de los resultados insatisfactorios, Google Brain está a un paso de volver a aclarar las fotos borrosas. Usando redes neuronales, la nueva tecnología compara la imagen de baja resolución con las fotos de alta resolución en la base de datos. Y luego adivine dónde colocar algunos colores y detalles basados ??en los de las fotos de mayor resolución.

Alexa falla épica inteligencia artificial Ai

8. El robot falla al intentar ingresar a la universidad.La gente a menudo teme que los robots puedan terminar siendo más inteligentes que los humanos y, por lo tanto, conquistar el mundo. Para consolar a los más preocupados, sepa que este robot ni siquiera ha logrado ingresar a la universidad. En 2011, un equipo de investigadores comenzó a trabajar en un robot llamado "Todai Robot" y tenía como objetivo que su criatura fuera aceptada en la Universidad de Tokio, la más competitiva de todo Japón. Aunque intentó tomar el examen de admisión para el año 2015, el robot no logró obtener una puntuación suficiente. Tras el segundo intento, que también fue insuficiente, finalmente en noviembre de 2016 debido a las pobres mejoras de la máquina, los investigadores abandonaron definitivamente el proyecto.

Alexa falla épica inteligencia artificial Ai