En la era de la inteligencia artificial (IA), los algoritmos juegan un papel esencial en muchos aspectos de nuestra vida cotidiana. Sin embargo, su implementación no siempre está exenta de errores. Aquí exploramos algunos ejemplos recientes que destacan el mal funcionamiento de estos sistemas.

1. Errores en Servicios al Cliente de Google

Los sistemas automatizados de soporte de Google han fallado en varias ocasiones, proporcionando respuestas inexactas o desconectando a usuarios con problemas reales. Este tipo de automatización no siempre logra captar matices importantes de las consultas humanas, dejando a los usuarios insatisfechos.

2. Publicidad Inadecuada y Decisiones Arbitrarias

Casos como la retirada de anuncios de programas de televisión en YouTube o la demonetización arbitraria de contenido han puesto en evidencia los sesgos en los algoritmos de control de calidad de plataformas como Google Ads.

3. Tesla y el Autopilot

En 2019, un incidente fatal ocurrió cuando el Autopilot de Tesla no detectó un camión en el camino. Esto se debió a limitaciones en los datos de entrenamiento, que no incluían situaciones de carreteras perpendiculares. Este error resaltó la importancia de entrenar sistemas en escenarios variados y realistas.

4. Chatbot de Microsoft (Tay)

Microsoft lanzó el chatbot Tay en 2016, que debía aprender del lenguaje de los usuarios de Twitter. Sin embargo, en menos de 24 horas, Tay empezó a publicar mensajes racistas y ofensivos debido al abuso de usuarios que lo manipulaban. Esto evidenció los riesgos de entrenar IA en entornos abiertos y no moderados.

5. Algoritmo de Amazon en Contratación

Un experimento de Amazon para usar IA en el reclutamiento terminó discriminando a las mujeres, ya que el algoritmo priorizaba a los candidatos masculinos debido a datos históricos sesgados que alimentaron el sistema.

6. Fallas en Reconocimiento Facial

Sistemas de reconocimiento facial han sido acusados de discriminación, como en un caso de predicción de orientación sexual o criminalidad basado en fotografías, decisiones polémicas que generaron debates éticos y legales.

7. Errores en Predicción de Precios de Zillow

La empresa Zillow perdió millones tras confiar en un algoritmo que compraba y vendía propiedades. La IA subestimó los riesgos del mercado inmobiliario, llevando a la cancelación del programa y miles de despidos.

8. Sistema de Salud Sesgado

Un algoritmo utilizado en hospitales de EE.UU. para priorizar la atención sanitaria discriminaba contra pacientes negros porque utilizaba el gasto sanitario como un proxy para la necesidad de cuidados, ignorando factores socioeconómicos clave.

9. Fallas en Seguridad Robótica

En un caso curioso, un robot de seguridad llamado Steve cayó en una fuente debido a problemas en su programación. Este incidente, aunque anecdótico, refleja cómo los datos incompletos pueden afectar incluso tareas aparentemente simples.

10. Renuncia del Gobierno Holandés

En 2021, el gobierno de los Países Bajos renunció tras un escándalo en el que un sistema de IA etiquetó erróneamente a familias de bajos ingresos como fraudulentas, causando graves perjuicios económicos y sociales.

Estos ejemplos subrayan la necesidad de desarrollar sistemas de IA con mayor rigor ético, transparencia y supervisión humana. Las decisiones basadas exclusivamente en algoritmos pueden tener consecuencias imprevistas, desde pérdidas financieras hasta daños sociales y éticos.

Fuentes: National Geographic, iProfesional, Onda Cero, The Objective.