Sobre demandas, chivos expiatorios y responsabilidades que no se pueden delegar
Hace unos días se conoció en EE. UU. una demanda insólita: unos padres acusan a OpenAI de ser responsable del suicidio de su hijo adolescente. Según su relato, ChatGPT habría dado respuestas “inadecuadas” que contribuyeron a la tragedia.
El caso tiene todos los ingredientes de un titular fácil: la tecnología de moda, un menor vulnerable, y una gran empresa con bolsillos lo bastante profundos para convertirse en objetivo judicial. Pero como suele ocurrir, lo que falta es contexto. ¿Qué apoyos tenía realmente ese chico? ¿Qué señales se pasaron por alto? ¿Qué papel jugó la familia en acompañar, escuchar y vigilar? Preguntas incómodas que rara vez aparecen en la narrativa mediática.
Cargar la culpa en un algoritmo es la versión siglo XXI de culpar al rol en los 80, al heavy metal en los 90 o a las redes sociales en los 2000. La IA no educa, no protege, no sustituye a unos padres atentos ni a un entorno que ofrezca apoyo real. Puede responder, entretener o incluso desvariar, pero no es un tutor ni un guardián.
El dolor de una pérdida puede explicar la búsqueda de un culpable externo, pero no la justifica. Señalar a una máquina puede aliviar conciencias, nunca devolver lo que se ha perdido. Y convierte en espectáculo lo que debería ser un duelo.
La verdad incómoda es esta: los hijos necesitan padres, no algoritmos. Y culpar a una IA de lo que es, en realidad, abandono y falta de atención, es un insulto a la inteligencia… y a la propia tragedia.
No hay comentarios:
Publicar un comentario