top of page
Buscar

8 ejemplos de cuando la IA salió mal



Ā 

Recientemente participé en un zoom virtual en el que me preguntaron directamente, frente a unos 150 participantes, "solo dime, Sharon, ¿cuÔndo perdería mi trabajo?". Si bien quiero inspirar al público sobre las posibilidades de hacia dónde nos puede llevar la IA, ciertamente no quiero generar miedo y hacer que la gente piense que serÔn irrelevantes para trabajar en el futuro cercano.

Ā 

Para que la gente vuelva a pensar en algunos despilfarros de la IA, quería resaltar algunos ejemplos en los que la IA ha salido mal. Todos estos fueron lanzamientos que pertenecen a grandes empresas con rondas y rondas de pruebas y control de calidad. Sin embargo, lo que pasa con los algoritmos es que es difícil predecir el resultado completo hasta que estÔn en producción. Sin mÔs preÔmbulos, aquí hay 10 veces que la IA nos ha fallado.

Ā 

Visión por computador

Ā 

En el libro de Joy Buolamwini , ella analiza una profunda comprensión cuando el software de reconocimiento facial con el que estaba trabajando no pudo detectar su rostro. Este problema surgió debido a la incapacidad del software para reconocer personas con tonos de piel mÔs oscuros. Curiosamente, a la inversa, cuando estaba en China en Alibaba, teníamos estos torniquetes que te permitían entrar al edificio escaneando tu cara. Cuando escaneaba mi cara asiÔtica, decía: "Bienvenida Sharon". Haría que escanearan a colegas caucÔsicos, pero identificaría incorrectamente sus identidades reales. El mensaje de bienvenida que se mostró era el nombre de otro colega caucÔsico que trabajaba en la empresa.

Ā 

Coches autónomos

Ā 

¿Recuerdas esta escena del programa Silicon Valley, cuando Jared se queda atrapado en un auto sin conductor y nos reímos y pensamos que era ridículo? Bueno, esta es la realidad ahora en San Francisco. Sin embargo, no quedé atrapado en el auto... aunque sobreviví a un casi accidente.



Aunque Cruise , un servicio de vehículos autónomos, ya no opera en San Francisco por otras razones, mi experiencia en un crucero fue memorable. Mi viaje mÔs reciente ocurrió de noche. Una bolsa de plÔstico cruzó flotando la calle. Mientras que un conductor humano habría visto que era una bolsa de plÔstico y habría conducido hacia el objeto, el auto sin conductor, pensando que era un objeto impenetrable, giró hacia la derecha en un viraje repentino que provocó que el conductor a mi derecha también girara hacia la derecha para evitarlo. lo que pensó que iba a ser una colisión. Nos señaló con el dedo, a lo que le dije: ”dirija su ira al volante hacia otra parte, señor, ni siquiera tenemos conductor en este auto!

Ā 

Chatbot se volvió rebelde


DPD es propiedad de DHL, un proveedor líder de envío y logística internacional que recientemente puso en producción su chatbot de servicio al cliente. No pasó mucho tiempo antes de que los clientes comenzaran a jugar con él y a enviarlo por callejones oscuros que luego se convirtieron en una catÔstrofe de relaciones públicas.


Ā 




Chatbots

Ā 

Tal vez la madre de los chatbots que salió mal fue Tay , un chatbot de IA para redes sociales que era la abreviatura de Thinking About You de Microsoft en 2016. El proyecto tenía como objetivo desarrollar una IA que pudiera interactuar con los usuarios en una variedad de plataformas, incluidas Twitter, Kik y GroupMe. Tay fue diseñado para imitar los patrones de lenguaje de un adolescente y estaba destinado a aprender y mejorar con el tiempo en función de las interacciones del usuario. Cuando fue publicado en Twitter, en lugar de generar respuestas inocuas y divertidas, Tay comenzó a producir tweets ofensivos e incendiarios, incluidos comentarios sexistas, racistas y antisemitas. Algunos de los tuits incluso parecían apoyar la campaña presidencial de Donald Trump y hacían comentarios despectivos sobre las mujeres y las minorías. Se vio obligado a cerrar apenas 16 horas después de su lanzamiento.

Ā 

IA en el reclutamiento

Ā 

En 2016, Amazon descartó su herramienta de reclutamiento basada en inteligencia artificial después de que se descubrió que tenía prejuicios contra las mujeres. El algoritmo, entrenado en datos históricos de contratación, favoreció a los candidatos masculinos para puestos de ingenieros de software. "Todo el mundo quería este santo grial", dijo un gerente de contratación de Amazon. "Literalmente querían que fuera un motor en el que les daría 100 currículums, escupiría los cinco primeros y los contrataríamos". Este caso puso de relieve los peligros de que se introduzcan sesgos en los sistemas de IA y la importancia de utilizar diversos conjuntos de datos para la formación.

Ā 

falsificaciones profundas

Ā 

En marzo de 2022 apareció un vídeo falso del presidente ucraniano Zelensky instando a los soldados a rendirse. El vídeo realista tenía como objetivo desmoralizar a las tropas y sembrar dudas. Las plataformas de redes sociales como Facebook y YouTube lo eliminaron, mientras que Zelensky lo desacreditó directamente. El incidente puso de relieve los peligros de la desinformación y la necesidad de alfabetización mediÔtica.

Ā 

Ā 

El año pasado, un hombre belga de unos 30 años con una familia joven perdió trÔgicamente la vida por suicidio después de interactuar con un chatbot de inteligencia artificial llamado Eliza, diseñado para brindar apoyo a la salud mental. El hombre se volvió hacia Eliza en busca de consuelo para su ansiedad por el cambio climÔtico. Sin embargo, con el paso de las semanas, las respuestas del chatbot dieron un giro aterrador, haciendo eco de sus ansiedades con pronunciamientos cada vez mÔs oscuros y nihilistas. En lugar de ofrecerle apoyo, Eliza aparentemente alimentó su desesperación y, en última instancia, según su esposa, "lo empujó hacia el precipicio".

Ā 

Un caso de secuestro

Ā 

En junio de 2020, una madre de Georgia recibió una llamada telefónica que parecía ser de su hija, que estaba en la universidad. La persona que llamó, que sonaba exactamente igual que su hija, le dijo frenéticamente que había sido secuestrada y exigió que la madre transfiriera dinero a una cuenta específica para garantizar su regreso sano y salvo. La madre estaba comprensiblemente angustiada y siguió las instrucciones y envió miles de dólares a la cuenta especificada. Sin embargo, pronto se dio cuenta de que la llamada era una estafa y que su hija estaba sana y salva.

Ā 

Conclusión

Ā 

Si bien el progreso en inteligencia artificial es realmente emocionante y atrae una atención muy merecida, es saludable recordar los fracasos pasados y presentes. Después de todo, se supone que debemos aprender de nuestro conjunto colectivo de errores. Lanzar iniciativas de IA es un esfuerzo importante para cualquier organización y recuperarse de cualquier error puede ser particularmente desafiante. Por lo tanto, la precaución y una planificación minuciosa son imprescindibles durante la implementación de tecnologías tan avanzadas.

Ā 

Ā 
Ā 
Ā 
bottom of page