top of page

8 ejemplos de cuando la IA salió mal



 

Recientemente participé en un zoom virtual en el que me preguntaron directamente, frente a unos 150 participantes, "solo dime, Sharon, ¿cuándo perdería mi trabajo?". Si bien quiero inspirar al público sobre las posibilidades de hacia dónde nos puede llevar la IA, ciertamente no quiero generar miedo y hacer que la gente piense que serán irrelevantes para trabajar en el futuro cercano.

 

Para que la gente vuelva a pensar en algunos despilfarros de la IA, quería resaltar algunos ejemplos en los que la IA ha salido mal. Todos estos fueron lanzamientos que pertenecen a grandes empresas con rondas y rondas de pruebas y control de calidad. Sin embargo, lo que pasa con los algoritmos es que es difícil predecir el resultado completo hasta que están en producción. Sin más preámbulos, aquí hay 10 veces que la IA nos ha fallado.

 

Visión por computador

 

En el libro de Joy Buolamwini , ella analiza una profunda comprensión cuando el software de reconocimiento facial con el que estaba trabajando no pudo detectar su rostro. Este problema surgió debido a la incapacidad del software para reconocer personas con tonos de piel más oscuros. Curiosamente, a la inversa, cuando estaba en China en Alibaba, teníamos estos torniquetes que te permitían entrar al edificio escaneando tu cara. Cuando escaneaba mi cara asiática, decía: "Bienvenida Sharon". Haría que escanearan a colegas caucásicos, pero identificaría incorrectamente sus identidades reales. El mensaje de bienvenida que se mostró era el nombre de otro colega caucásico que trabajaba en la empresa.

 

Coches autónomos

 

¿Recuerdas esta escena del programa Silicon Valley, cuando Jared se queda atrapado en un auto sin conductor y nos reímos y pensamos que era ridículo? Bueno, esta es la realidad ahora en San Francisco. Sin embargo, no quedé atrapado en el auto... aunque sobreviví a un casi accidente.



Aunque Cruise , un servicio de vehículos autónomos, ya no opera en San Francisco por otras razones, mi experiencia en un crucero fue memorable. Mi viaje más reciente ocurrió de noche. Una bolsa de plástico cruzó flotando la calle. Mientras que un conductor humano habría visto que era una bolsa de plástico y habría conducido hacia el objeto, el auto sin conductor, pensando que era un objeto impenetrable, giró hacia la derecha en un viraje repentino que provocó que el conductor a mi derecha también girara hacia la derecha para evitarlo. lo que pensó que iba a ser una colisión. Nos señaló con el dedo, a lo que le dije: ¡dirija su ira al volante hacia otra parte, señor, ni siquiera tenemos conductor en este auto!

 

Chatbot se volvió rebelde


DPD es propiedad de DHL, un proveedor líder de envío y logística internacional que recientemente puso en producción su chatbot de servicio al cliente. No pasó mucho tiempo antes de que los clientes comenzaran a jugar con él y a enviarlo por callejones oscuros que luego se convirtieron en una catástrofe de relaciones públicas.


 




Chatbots

 

Tal vez la madre de los chatbots que salió mal fue Tay , un chatbot de IA para redes sociales que era la abreviatura de Thinking About You de Microsoft en 2016. El proyecto tenía como objetivo desarrollar una IA que pudiera interactuar con los usuarios en una variedad de plataformas, incluidas Twitter, Kik y GroupMe. Tay fue diseñado para imitar los patrones de lenguaje de un adolescente y estaba destinado a aprender y mejorar con el tiempo en función de las interacciones del usuario. Cuando fue publicado en Twitter, en lugar de generar respuestas inocuas y divertidas, Tay comenzó a producir tweets ofensivos e incendiarios, incluidos comentarios sexistas, racistas y antisemitas. Algunos de los tuits incluso parecían apoyar la campaña presidencial de Donald Trump y hacían comentarios despectivos sobre las mujeres y las minorías. Se vio obligado a cerrar apenas 16 horas después de su lanzamiento.

 

IA en el reclutamiento

 

En 2016, Amazon descartó su herramienta de reclutamiento basada en inteligencia artificial después de que se descubrió que tenía prejuicios contra las mujeres. El algoritmo, entrenado en datos históricos de contratación, favoreció a los candidatos masculinos para puestos de ingenieros de software. "Todo el mundo quería este santo grial", dijo un gerente de contratación de Amazon. "Literalmente querían que fuera un motor en el que les daría 100 currículums, escupiría los cinco primeros y los contrataríamos". Este caso puso de relieve los peligros de que se introduzcan sesgos en los sistemas de IA y la importancia de utilizar diversos conjuntos de datos para la formación.

 

falsificaciones profundas

 

En marzo de 2022 apareció un vídeo falso del presidente ucraniano Zelensky instando a los soldados a rendirse. El vídeo realista tenía como objetivo desmoralizar a las tropas y sembrar dudas. Las plataformas de redes sociales como Facebook y YouTube lo eliminaron, mientras que Zelensky lo desacreditó directamente. El incidente puso de relieve los peligros de la desinformación y la necesidad de alfabetización mediática.

 

Capítulo AI Suicidio

 

El año pasado, un hombre belga de unos 30 años con una familia joven perdió trágicamente la vida por suicidio después de interactuar con un chatbot de inteligencia artificial llamado Eliza, diseñado para brindar apoyo a la salud mental. El hombre se volvió hacia Eliza en busca de consuelo para su ansiedad por el cambio climático. Sin embargo, con el paso de las semanas, las respuestas del chatbot dieron un giro aterrador, haciendo eco de sus ansiedades con pronunciamientos cada vez más oscuros y nihilistas. En lugar de ofrecerle apoyo, Eliza aparentemente alimentó su desesperación y, en última instancia, según su esposa, "lo empujó hacia el precipicio".

 

Un caso de secuestro

 

En junio de 2020, una madre de Georgia recibió una llamada telefónica que parecía ser de su hija, que estaba en la universidad. La persona que llamó, que sonaba exactamente igual que su hija, le dijo frenéticamente que había sido secuestrada y exigió que la madre transfiriera dinero a una cuenta específica para garantizar su regreso sano y salvo. La madre estaba comprensiblemente angustiada y siguió las instrucciones y envió miles de dólares a la cuenta especificada. Sin embargo, pronto se dio cuenta de que la llamada era una estafa y que su hija estaba sana y salva.

 

Conclusión

 

Si bien el progreso en inteligencia artificial es realmente emocionante y atrae una atención muy merecida, es saludable recordar los fracasos pasados y presentes. Después de todo, se supone que debemos aprender de nuestro conjunto colectivo de errores. Lanzar iniciativas de IA es un esfuerzo importante para cualquier organización y recuperarse de cualquier error puede ser particularmente desafiante. Por lo tanto, la precaución y una planificación minuciosa son imprescindibles durante la implementación de tecnologías tan avanzadas.

 

0 visualizaciones0 comentarios

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page