Ética en el uso de la IA y el caso Horner
- Manuel Castilla Martínez
Es innegable que en nuestra #CiudadDigital, la inteligencia artificial (IA) ha venido a revolucionar nuestra sociedad, desde la automatización de tareas hasta la toma de decisiones en campos como la medicina, la seguridad, creatividad y el entretenimiento.
Este humilde colaborador como cualquier persona tiene pasatiempos y aficiones y una de ellas es la Fórmula 1 y aprovechando que ha iniciado la temporada ha comenzado con una polémica en donde han involucrado el posible uso de la IA para generación de pruebas con tal de lograr la salida del “jefe principal” de uno de los grandes equipos de la categoría.
Estoy hablando del caso Horner, el cual se refiere a Christian Horner, “jefe principal” del equipo Oracle Red Bull Racing, sí, el equipo donde corre Sergio “Checo” Pérez, el único piloto mexicano en la F1.
El caso Horner para no entrar en muchos detalles, se trata de un caso de conducta inapropiada entre el jefe del equipo y una empleada, en donde, al final de una investigación independiente ordenada por el equipo, desestimó la culpabilidad de Horner por dicha conducta. Pero mientras se desarrollaba el primer Gran Premio de la temporada, alguien de forma anónima filtró un Google Drive con capturas de pantalla de WhatsApp provenientes del móvil de la demandante en donde se muestra supuesta evidencia de la conducta inapropiada del demandado.
Pero algunos medios, sobre todo provenientes de YouTube, planteaban la posibilidad de que dichas pruebas hubieran sido generadas con ayuda de la inteligencia artificial, esto debido al gran avance que hay en el área de las IA generativas.
Sin embargo, su adopción plantea preguntas éticas fundamentales como las siguientes:
1. Transparencia y explicabilidad: La IA debe ser transparente. Los algoritmos deben explicar sus decisiones para que los usuarios comprendan cómo se llegó a una conclusión o creación de contenido, ya que la opacidad de los modelos de IA puede generar desconfianza y riesgos, especialmente en aplicaciones críticas como la justicia o la salud.
2. Equidad y sesgos: La IA puede heredar sesgos de los datos de entrenamiento es decir con la información con la que fue alimentada para lograr dicho entrenamiento, esto puede resultar en discriminación hacia ciertos grupos. Es crucial garantizar que los sistemas de IA sean equitativos y no perpetúen prejuicios.
3. Privacidad y vigilancia: La IA procesa grandes cantidades de datos personales, por ende, la privacidad debe ser protegida, ya que la vigilancia masiva y la invasión de la privacidad actualmente se están convirtiendo en preocupaciones legítimas.
4. Responsabilidad y decisiones autónomas: ¿Quién es responsable cuando un algoritmo toma decisiones o crea contenido? ¿El creador, el usuario o el propio sistema? La autonomía de la IA plantea dilemas éticos. ¿Quién es quien controla las decisiones o creaciones finales realizadas por una IA?
La Posibilidad en el Caso Horner
1. Generación de pruebas por IA: La filtración de documentos en el caso Horner ha generado controversia. ¿Podrían haber sido producidos por IA? Aunque aún no se ha probado lo anterior, es un hecho que la IA ya tienen la capacidad de crear contenido que parece realista, incluyendo documentos.
2. Verificación y confianza: La autenticidad de las pruebas debe ser verificada, aunque el uso de las IA podría dificultar esta tarea, ya que cada vez es más difícil identificar que es creado por IA y en dónde hubo intervención humana. Por lo tanto, la confianza en la integridad de las pruebas es esencial para un juicio justo, tomando en cuenta las fuentes de estas; por ejemplo, las filtraciones del caso Horner que en su momento fue privado vinieron de medios de comunicación que se sabe que están controladas a favor de la parte demandante buscando tomar ventaja de la filtración
3. Ética y consecuencias: Si la IA se utilizó para crear pruebas, ¿es ético? ¿Cómo afecta esto al caso? La comunidad legal debería ya considerar las consecuencias de estas implicaciones.
En conclusión, la inteligencia artificial es una herramienta poderosa, pero su uso debe ser ético y transparente. En el caso Horner, la posibilidad de su implicación plantea desafíos legales y morales. La sociedad debe debatir y establecer directrices claras para un uso responsable de la IA.
El autor es Desarrollador de Entornos Virtuales en la Universidad Iberoamericana Puebla.
Suscríbete a las redes de la Coordinación de Educación Virtual:
Facebook https://www.facebook.com/edvirtualIBEROP
YouTube https://www.youtube.com/channel/UCKe1fjvzbqEKevTJQjbgVMQ
X https://twitter.com/evirtualIberoP/
Instagram https://www.instagram.com/eduvirtualiberop/
Opinion para Interiores:
Anteriores
Licenciado en Sistemas Computacionales por la Universidad Iberoamericana Puebla. Ha encabezado el área de Soporte Técnico de la Dirección de Informática en su alma mater. Actualmente colabora como Desarrollador de Ambiente Virtuales en la Coordinación de Educación Virtual de la IBERO Puebla.