A veces, la IA ofrece respuestas que parecen creíbles pero, en realidad, son falsas: inventa títulos de libros, cambia las fechas o mezcla hechos. ¿Por qué sucede? ¿Se equivoca, o miente?
La IAG predice los resultados más probables según patrones o reiteraciones que aprende de grandes cantidades de datos, sin entender el significado ni verificar aquello que genera. Por eso, a veces produce lo que se suele denominar alucinaciones: devuelve datos incorrectos o inventados. Además, su funcionamiento es poco transparente: no sabemos exactamente cómo ni por qué la IA decide qué respuesta dar.
Es fundamental validar los contenidos que produce la IA. El conocimiento previo es clave: cuanto más sepamos sobre un tema, más posibilidades tendremos de detectar errores o afirmaciones dudosas. También es necesario contrastar las respuestas con fuentes confiables, como libros, medios reconocidos o sitios especializados.
La IAG no está diseñada para “revelar la verdad”, sino para continuar un texto, una imagen o una canción de la manera más probable según los datos con los que fue entrenada. Cuando no dispone de suficiente información sobre un tema, puede completar con datos que parecen correctos, pero no siempre lo son. Por ejemplo, si se le pregunta por un personaje histórico poco conocido, podría inventar fechas, lugares o hechos inexistentes. Hablar de “alucinaciones” es, en realidad, una metáfora: la IA no piensa ni se equivoca como una persona. Estos errores son una consecuencia lógica de su funcionamiento.
“10 claves para chequear las respuestas de la IA” es un mapa con consejos útiles disponible en: tinyurl.com/chequearia.
¿Qué pasa si le pedimos a una herramienta de IAG que cree una imagen de una “madre trabajadora”? Si hacen la prueba, seguramente la muestre realizando tareas del hogar o cuidando niños, antes que como conductora de un camión o programadora. Todo depende de los ejemplos presentes en sus datos de entrenamiento.
Las respuestas de la IA no son neutrales ni objetivas. Los sesgos en la IA son precisamente aquellos prejuicios incorporados en los sistemas, que pueden surgir de los datos con los que fueron entrenados, decisiones de diseño o perspectivas de quienes los desarrollan. Así, estos sistemas pueden reforzar desigualdades o injusticias sociales.