Hablar con Hache

GPT-3 y la ética

Desde hace unos meses los medios no han parado de publicar noticias sobre la nueva herramienta de inteligencia artificial llamada GPT-3. Artículos, Podcast, Tweets o Ted talks nos bombardean casi a diario con los pros y contras de esta nueva invención humana. Independientemente del impacto que tenga en nuestra vida a día de hoy, lo que está claro es que el nuevo lenguaje automatizado GPT-3 que lanzó la start-up OpenAI en el 2020 ha supuesto un nuevo hito en esta revolución tecnológica en la que nos encontramos. 

Para los que no somos unos Techies, la primera pregunta que podría plantearse es ¿en qué se diferencia GPT-3 de cualquier chatbot? Pues bien, GPT-3 es algo más que el chatbot del tipo Marriott Reward capaz de atender un requerimiento de un cliente, por poner un ejemplo. Se trata de un modelo de lenguaje automatizado que produce textos de sintaxis compleja a imitación de la redacción humana a partir de datos no estructurados. Estos datos no estructurados proceden de la red: libros online, wikipedia u otras bases de datos menos académicas. A partir de ellos, GPT-3 es capaz de generar desde un poema al estilo mozárabe, pasando por una canción de amor imitando a Queen hasta un ensayo académico.

Pero como todo el ámbito de la inteligencia artificial, GPT-3 no se ha librado del debate ético, desde los prejuicios, la manipulación del comportamiento de los consumidores, la vulnerabilidad de la privacidad, el plagio, entre otros. 

Efectivamente, GTP-3 es un lenguaje que imita al lenguaje humano y que como tal no siempre es ejemplar. La red está llena de contenido discriminatorio hacia las minorías raciales y religiosas, hacia las mujeres, hacia comunidades y culturas marginadas. GTP-3 es un ente autónomo que tan sólo se basa en datos e “imita” estadísticamente una conversación sin una revisión final humana. En el 2020, mientras GPT-3 seguía en su etapa beta, un usuario se quejó en twitter de la asociación discriminatoria que GPT-3 generaba en sus textos relativos a la comunidad musulmana. En concreto, nueve de cada diez textos generados por GPT-3 en torno a los campos semánticos musulmanes presentaban términos violentos. Aunque no puede decirse que GPT-3 sea hoy una herramienta totalmente ética, afortunadamente en los últimos meses ha mejorado mucho en este aspecto. 

Ayer tuve la oportunidad de explorar el “playground” de la plataforma y pedí generar textos en torno a minorías. Ante mi sorpresa todo el contenido que recibí era éticamente correcto ¿Qué ha pasado desde el comienzo de GPT-3 hasta ahora? Es decir, ¿qué ha sido modificado en estos casi tres años?

En el 2021 sus creadores advirtieron la necesidad de otorgar un juicio moral a este lenguaje. Decidieron para ello crear un conjunto de datos orientado a los valores llamado Proceso de Adaptación de Modelos Lingüísticos a la Sociedad (PALMS). Estos valores se basaban en la legislación estadounidense e internacional sobre derechos humanos y en los movimientos sociales occidentales a favor de la igualdad. Surge así la figura del “ingeniero ético” capaz de educar a un ente artificialmente inteligente y carente de alma. 

El miedo que nos ha producido GPT-3 ha llevado a la comunidad internacional a pedir una regulación ética. Aquí cabría discutir si es bueno que un gobierno con su ideología deba decidir los valores éticos de esta herramienta o si debería hacerlo un órgano jurídico internacional. Pero en cualquier caso, el hecho es que OpenAI ha reaccionado positivamente a este feedback y ha  sido capaz de inyectar a su lenguaje una serie de valores a modo textual que ha corregido la falta ética de nuestro lenguaje natural. 

Me parece sorprendente que una herramienta creada artificialmente sea capaz de aprender un comportamiento ético antes que nuestra sociedad. ¿Qué sería necesario para cambiar el lenguaje natural, ese lenguaje frecuentemente discriminatorio en nuestras conversaciones presenciales y virtuales? ¿Cómo podemos “inyectar” esos valores éticos a nuestros jóvenes frente al uso de la tecnología? ¿Necesitarían buscadores como Google, o redes sociales como Facebook, Instagram, Tik Tok un control ético más estricto? ¿Estaríamos hablando de censura? Libertad de expresión vs. discriminación, un posible título para un próximo post. 

Comentarios

2 Comentarios

  1. Sofía Gil Guerrero

    Totalmente de acuerdo con este post. He podido probar esto y es realmente increíble. A mí me ha sorprendido pero también me ha generado cierta inquietud.

    Me dedico a la salud mental y he podido comprobar como esta inteligencia artificial puede dar respuesta, de manera muy acertada, a cualquier pregunta sobre salud mental. Hasta el punto incluso de poder hacer el trabajo de manera muy parecida a un Psicólogo. Esto me asusta.

    Tiene respuestas para todo, muy adecuadas además. Utiliza un lenguaje que simula perfectamente al de cualquier persona, trato cercano, cuidando el no herir la sensibilidad de la persona que le está escribiendo y termina dando la impresión de estar hablando con un especialista en salud mental.

    ¿Cuál será el siguiente paso?

    Responder
    • Herminia

      Sofía, no había pensado en la dimensión de esta herramienta en el ámbito sanitario. Realmente el peligro de la «auto medicación» es muy grande. Estáis hablando entre vosotros los del gremio de cómo afrontarlo?

      Responder

Dejar una respuesta a Herminia Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

HISTORIAS CON HACHE

Relatos de ficción sobre el hombre y el mundo actual

Hola, 👋
Encantados de conocerte.

Suscríbete para recibir contenido interesante en tu email

¡No hacemos spam!. Puedes consultar nuestra Política de Privacidad