Educado pero amoral: GPT-3, inteligencia artificial capaz de escribir libros | Ciencia y Ecología | DW | 08.09.2020
  1. Inhalt
  2. Navigation
  3. Weitere Inhalte
  4. Metanavigation
  5. Suche
  6. Choose from 30 Languages
Publicidad

Ciencia y Ecología

Educado pero amoral: GPT-3, inteligencia artificial capaz de escribir libros

Si es puesto a mal uso, el GPT-3 podría ser útil para escribir reseñas falsas o incluso producir noticias en masa para una campaña de desinformación, aseguran expertos.

Symbolbild Künstliche Intelligenz

(Foto de archivo)

Una tecnología de inteligencia artificial (IA) creada por una empresa cofundada por el multimillonario Elon Musk ha ganado elogios por su capacidad para generar y escribir historias coherentes, novelas e incluso códigos de computadora. No obstante, permanece ciega a conceptos más complejos como el racismo o el sexismo.

GPT-3, como se conoce al último modelo de lenguaje de IA de la empresa californiana OpenAI, es capaz de completar un diálogo entre dos personas, continuar una serie de preguntas y respuestas o terminar un poema al estilo de Shakespeare.

Quien lo use puede empezar una frase o un texto y GPT-3 lo completará, basando su respuesta en la gigantesca cantidad de información que ha recibido. Esto podría resultar útil para el servicio al cliente, los abogados que necesitan resumir un precedente legal o para los autores que necesitan inspiración.

USA Roboter

Una mano robótica que gira un cubo en el laboratorio de investigación de la empresa OpenAI en San Francisco.

Textos que se asemejan a la escritura humana

Si bien la tecnología no es nueva y aún no ha aprendido a razonar como una mente humana, la última oferta de OpenAI ha ganado elogios por la forma en que su texto se asemeja a la escritura humana.

"Es capaz de generar oraciones muy naturales y plausibles", dice Bruce Delattre, especialista en inteligencia artificial de la agencia de consultoría de datos Artefact. "Es impresionante ver cuánto es capaz el modelo de apropiarse de estilos literarios, incluso si hay repeticiones".

Recientemente, el diario británico The Guardian le pidió a OpenAI que GPT-3 escribiese un artículo para su portal, el cual fue publicado este martes (08.09.2020). 

Ver el video 02:30

¿Tienen sentimientos los robots?

"Regularidades estadísticas"

GPT-3 también es capaz de encontrar respuestas precisas a problemas, como el nombre de una enfermedad a partir de una descripción de síntomas. Puede resolver algunos problemas matemáticos, expresarse en varios idiomas o generar código de computadora para tareas simples que los desarrolladores tienen que hacer pero que felizmente evitarían. 

Delattre dijo a la AFP que todo funciona gracias a "regularidades estadísticas". "El modelo sabe que una palabra (o expresión) en particular es más o menos probable que siga a otra".

Amine Benhenni, director científico de la firma de investigación y desarrollo de inteligencia artificial Dataswati, dijo, por su parte, que "la gran diferencia" en comparación con otros sistemas es el tamaño del modelo. 

Ver el video 26:06

Visión futuro - El magacín científico

Wikipedia representa solo el tres por ciento de toda la información

GPT-3 ha sido alimentado con el contenido de miles de millones de páginas web que están disponibles gratuitamente en línea y todo tipo de trabajos escritos.

Para dar una idea de la magnitud del proyecto, todo el contenido de la enciclopedia en línea Wikipedia representa solo el tres por ciento de toda la información que se le ha dado.

Potencialmente racista, antisemita o sexista

Por otra parte, Claude de Loupy, cofundador de la empresa francesa Syllabs que se especializa en la creación automatizada de textos, dice que el sistema carece de "pragmatismo".

Otro gran problema es que replica sin pensarlo dos veces cualquier estereotipo o discurso de odio alimentado durante su período de formación, y puede convertirse rápidamente en racista, antisemita o sexista.

Ver el video 02:56

Inteligencia Artificial contra el coronavirus

No sería útil para la existencia de un roboperiodismo

Como tal, los expertos entrevistados por la agencia francesa sintieron que GPT-3 no era lo suficientemente confiable para ningún sector que necesitara depender de máquinas, como el roboperiodismo o los servicios al cliente. Sin embargo, puede ser útil, al igual que otros modelos similares, para escribir reseñas falsas o incluso producir noticias en masa para una campaña de desinformación.

Preocupado por las "aplicaciones maliciosas de la tecnología", OpenAI, que fue cofundada en 2015 por Musk y está financiada por Microsoft, entre otros, optó por no lanzar la versión anterior del modelo, GPT-2, en febrero de 2019.

Originalmente una organización sin fines de lucro, OpenAI luego se convirtió en una empresa de "ganancias limitadas", lo que significa que los inversores obtienen un rendimiento limitado. Y en junio, la empresa cambió de táctica y abrió su modelo GPT-3 al uso comercial, lo que permitió la retroalimentación de los usuarios. Un paso que, según Claude de Loupy, podría generar grandes beneficios.

No hay "duda de que la cantidad de texto generado por la IA está a punto de explotar en la web", aseguró. (AFP)