8 ejemplos de cuando la IA salió mal
- Sharon Gai
- 28 jun 2024
- 4 Min. de lectura

Ā
Recientemente participĆ© en un zoom virtual en el que me preguntaron directamente, frente a unos 150 participantes, "solo dime, Sharon, ĀæcuĆ”ndo perderĆa mi trabajo?". Si bien quiero inspirar al pĆŗblico sobre las posibilidades de hacia dónde nos puede llevar la IA, ciertamente no quiero generar miedo y hacer que la gente piense que serĆ”n irrelevantes para trabajar en el futuro cercano.
Ā
Para que la gente vuelva a pensar en algunos despilfarros de la IA, querĆa resaltar algunos ejemplos en los que la IA ha salido mal. Todos estos fueron lanzamientos que pertenecen a grandes empresas con rondas y rondas de pruebas y control de calidad. Sin embargo, lo que pasa con los algoritmos es que es difĆcil predecir el resultado completo hasta que estĆ”n en producción. Sin mĆ”s preĆ”mbulos, aquĆ hay 10 veces que la IA nos ha fallado.
Ā
Visión por computador
Ā
En el libro de Joy Buolamwini , ella analiza una profunda comprensión cuando el software de reconocimiento facial con el que estaba trabajando no pudo detectar su rostro. Este problema surgió debido a la incapacidad del software para reconocer personas con tonos de piel mĆ”s oscuros. Curiosamente, a la inversa, cuando estaba en China en Alibaba, tenĆamos estos torniquetes que te permitĆan entrar al edificio escaneando tu cara. Cuando escaneaba mi cara asiĆ”tica, decĆa: "Bienvenida Sharon". HarĆa que escanearan a colegas caucĆ”sicos, pero identificarĆa incorrectamente sus identidades reales. El mensaje de bienvenida que se mostró era el nombre de otro colega caucĆ”sico que trabajaba en la empresa.
Ā
Coches autónomos
Ā
ĀæRecuerdas esta escena del programa Silicon Valley, cuando Jared se queda atrapado en un auto sin conductor y nos reĆmos y pensamos que era ridĆculo? Bueno, esta es la realidad ahora en San Francisco. Sin embargo, no quedĆ© atrapado en el auto... aunque sobrevivĆ a un casi accidente.

Aunque Cruise , un servicio de vehĆculos autónomos, ya no opera en San Francisco por otras razones, mi experiencia en un crucero fue memorable. Mi viaje mĆ”s reciente ocurrió de noche. Una bolsa de plĆ”stico cruzó flotando la calle. Mientras que un conductor humano habrĆa visto que era una bolsa de plĆ”stico y habrĆa conducido hacia el objeto, el auto sin conductor, pensando que era un objeto impenetrable, giró hacia la derecha en un viraje repentino que provocó que el conductor a mi derecha tambiĆ©n girara hacia la derecha para evitarlo. lo que pensó que iba a ser una colisión. Nos seƱaló con el dedo, a lo que le dije: Ā”dirija su ira al volante hacia otra parte, seƱor, ni siquiera tenemos conductor en este auto!
Ā
Chatbot se volvió rebelde
DPD es propiedad de DHL, un proveedor lĆder de envĆo y logĆstica internacional que recientemente puso en producción su chatbot de servicio al cliente. No pasó mucho tiempo antes de que los clientes comenzaran a jugar con Ć©l y a enviarlo por callejones oscuros que luego se convirtieron en una catĆ”strofe de relaciones pĆŗblicas.
Ā


Chatbots
Ā
Tal vez la madre de los chatbots que salió mal fue Tay , un chatbot de IA para redes sociales que era la abreviatura de Thinking About You de Microsoft en 2016. El proyecto tenĆa como objetivo desarrollar una IA que pudiera interactuar con los usuarios en una variedad de plataformas, incluidas Twitter, Kik y GroupMe. Tay fue diseƱado para imitar los patrones de lenguaje de un adolescente y estaba destinado a aprender y mejorar con el tiempo en función de las interacciones del usuario. Cuando fue publicado en Twitter, en lugar de generar respuestas inocuas y divertidas, Tay comenzó a producir tweets ofensivos e incendiarios, incluidos comentarios sexistas, racistas y antisemitas. Algunos de los tuits incluso parecĆan apoyar la campaƱa presidencial de Donald Trump y hacĆan comentarios despectivos sobre las mujeres y las minorĆas. Se vio obligado a cerrar apenas 16 horas despuĆ©s de su lanzamiento.
Ā
IA en el reclutamiento
Ā
En 2016, Amazon descartó su herramienta de reclutamiento basada en inteligencia artificial despuĆ©s de que se descubrió que tenĆa prejuicios contra las mujeres. El algoritmo, entrenado en datos históricos de contratación, favoreció a los candidatos masculinos para puestos de ingenieros de software. "Todo el mundo querĆa este santo grial", dijo un gerente de contratación de Amazon. "Literalmente querĆan que fuera un motor en el que les darĆa 100 currĆculums, escupirĆa los cinco primeros y los contratarĆamos". Este caso puso de relieve los peligros de que se introduzcan sesgos en los sistemas de IA y la importancia de utilizar diversos conjuntos de datos para la formación.
Ā
falsificaciones profundas
Ā
En marzo de 2022 apareció un vĆdeo falso del presidente ucraniano Zelensky instando a los soldados a rendirse. El vĆdeo realista tenĆa como objetivo desmoralizar a las tropas y sembrar dudas. Las plataformas de redes sociales como Facebook y YouTube lo eliminaron, mientras que Zelensky lo desacreditó directamente. El incidente puso de relieve los peligros de la desinformación y la necesidad de alfabetización mediĆ”tica.
Ā
CapĆtulo AI Suicidio
Ā
El año pasado, un hombre belga de unos 30 años con una familia joven perdió trÔgicamente la vida por suicidio después de interactuar con un chatbot de inteligencia artificial llamado Eliza, diseñado para brindar apoyo a la salud mental. El hombre se volvió hacia Eliza en busca de consuelo para su ansiedad por el cambio climÔtico. Sin embargo, con el paso de las semanas, las respuestas del chatbot dieron un giro aterrador, haciendo eco de sus ansiedades con pronunciamientos cada vez mÔs oscuros y nihilistas. En lugar de ofrecerle apoyo, Eliza aparentemente alimentó su desesperación y, en última instancia, según su esposa, "lo empujó hacia el precipicio".
Ā
Un caso de secuestro
Ā
En junio de 2020, una madre de Georgia recibió una llamada telefónica que parecĆa ser de su hija, que estaba en la universidad. La persona que llamó, que sonaba exactamente igual que su hija, le dijo frenĆ©ticamente que habĆa sido secuestrada y exigió que la madre transfiriera dinero a una cuenta especĆfica para garantizar su regreso sano y salvo. La madre estaba comprensiblemente angustiada y siguió las instrucciones y envió miles de dólares a la cuenta especificada. Sin embargo, pronto se dio cuenta de que la llamada era una estafa y que su hija estaba sana y salva.
Ā
Conclusión
Ā
Si bien el progreso en inteligencia artificial es realmente emocionante y atrae una atención muy merecida, es saludable recordar los fracasos pasados y presentes. DespuĆ©s de todo, se supone que debemos aprender de nuestro conjunto colectivo de errores. Lanzar iniciativas de IA es un esfuerzo importante para cualquier organización y recuperarse de cualquier error puede ser particularmente desafiante. Por lo tanto, la precaución y una planificación minuciosa son imprescindibles durante la implementación de tecnologĆas tan avanzadas.
Ā