La firma de investigación en inteligencia artificial cofundada por Elon Musk, OpenAI, ha lanzado la última versión de su herramienta de ‘lenguaje natural’. Se llama GPT-3 y es capaz de aprender de una infinitud de datos y de escribir como lo haría una persona
Open AI es la mayor firma de investigación en inteligencia artificial, cofundada por Elon Musk, también impulsor y CEO de Tesla y SpaceX. Este laboratorio ha lanzado una herramienta que redacta textos automáticamente, indistinguibles de los de los humanos. Se llama GPT-3 y está disponible para desarrolladores. Los expertos la han probado, confirmando la naturalidad de su lenguaje y la exactitud con que reproduce obras.
Se trata de la tercera versión del sistema, que ha logrado generar un “lenguaje natural”. Su algoritmo busca entre infinitud de datos y patrones de textos reales, dando lugar a frases y párrafos en un inglés cotidiano.
Ya hay casos de uso que se basan en este tipo de aplicaciones de lenguaje automático. Por ejemplo, la herramienta de autocompletado de Google, Smart Compose, o la agencia de noticias estadounidense Associated Press, que publica historias e informes deportivos usando esas herramientas. Sin embargo, sus resultados suelen ser algo raros y poco naturales, debido a las limitaciones de los datos disponibles o de los modelos que se emplean.
“Hasta ahora, a todas las generaciones de lenguaje natural les han faltado matices”, ha dicho Carolyn Rose, profesora del instituto de tecnologías del lenguaje de la universidad Carniege Mellon, en Pensilvania (EEUU). Sin embargo, GPT-3 es diferente, ya que ha logrado ir más allá de los modelos que existían hasta ahora, gracias a su capacidad de procesar infinitud de datos, llegando a basarse en 175.000 millones de parámetros. El algoritmo decide la sucesión de palabras recreando una conversación en inglés.
Su anterior versión, GPT-2 usaba 1.500 millones de parámetros y la misma herramienta, pero de Microsoft, cuenta con 17.000 millones, siendo la segunda mejor.
OpenAI publicó las especificaciones de GPT-3 en mayo, pero no fue hasta la semana pasada cuando abrió una plataforma para que los desarrolladores pudieran probarla. Estos expertos han compartido su experiencia con la herramienta en redes sociales, donde han explicado la sorpresa que se han llevado, por la potencia del sistema y por los usos que han puesto en marcha. Han creado textos para páginas webs, escrito sonetos de Shakespeare y resumido el artículo de investigación de la misma GPT-3. Algunas de las descripciones de los expertos coincidían en destacar lo “innovador” del nuevo modelo y su capacidad para facilitar el trabajo de mucha gente.
“Todo el bombo que se le dé, estará justificado. Merece la pena plantearse todas las oportunidades y retos que plantea”, publicó en Twitter uno de los inversores del proyecto Chris Sacca.
El artista Mario Klingemann también usó la herramienta y GPT-3 redactó el texto que vemos a continuación:
“Quizás la gente considere esto como el precursor de un gran cambio en el procesamiento del lenguaje natural”, escribió Oren Etzione, el CEO del instituto Allen, un laboratorio de investigación sin ánimo de lucro de Seattle (EEUU). La herramienta construye los textos basándose en todos los avances que se han logrado hasta ahora y en 30 años de desarrollos: “Si va a ser un hito o no, ya lo veremos. De lo que no hay duda es de que es impresionante”, añadía.
Y como está disponible como interfaz de programación de aplicaciones (API), democratiza su acceso a todo el mundo, como destacaba también Etzione.
“Quienes no tengan los recursos de computación o los conocimientos técnicos, tienen, aun así, la posibilidad de usarlo”, explicaba.
GPT-3 todavía puede mejorar en próximas generaciones de texto, explicaba Rose, la investigadora de Pensilvania. También podría reproducir herramientas de lenguaje hablado, como las instrucciones de los mapas de Google o Apple, haciéndolas menos “desagradables” de escuchar.
Este último modelo no es perfecto. Eso seguro. El desarrollador Kevin Lacker hizo la prueba de Turing, que consiste en comprobar si la inteligencia artificial puede imitar y pasar por la de las personas. En su opinión, “GPT-3 es impresionante en algunos casos, pero todavía tiene rasgos no humanos”.
En CEO de OpenAI, Sam Altman, también ha sido cauto al hablar de GPT-3:
Open AI fue fundada en 2015 por grandes nombres del sector tecnológico, además de Elon Musk o Peter Thiel, cofundador de Paypal. Sin embargo, Musk criticó a principios de año la empresa que él mismo fundó, diciendo que debería abrir sus investigaciones a una mayor escala. Y según han lamentado desde la publicación MIT Technology Review, la cultura de la compañía es la del secretismo, algo que daña su imagen. Por ejemplo, la anterior versión, GPT-2, no estuvo desde el inicio disponible para desarrolladores. En principio, la razón era que se podía usar para crear noticias falsas. Sin embargo, luego se rectificó, permitiéndose su uso a los expertos.
Precisamente, el CEO del instituto Allen alertó de que la capacidad de GPT-3 para replicar mensajes es tan alta que podría dificultar la identificación de mensajes falsos.
“La siguiente pregunta ‘¿Es auténtica la imagen, el texto, el vídeo o el correo?’ será cada vez más difícil de contestar”, explicaba.
GPT-3 también ha levantado preocupación en cuanto a los sesgos racistas o sexistas de la inteligencia artificial. Dichos modelos aprenden de los datos con los que se nutren y, estos, pueden multiplicar los prejuicios de las personas. Por ejemplo, el responsable de IA de Facebook, Jerome Pesenti, advirtió en un tuit que la herramienta de OpenAI daba resultados parciales cuando se usaban las siguientes palabras: judío, mujer o negro.
“Con todo, el proceso es mecánico”, concluía la investigadora de Pensilvania. “No tiene valores, no sabe qué es la belleza”.
Fuente: ticbeat.com
La entrada GPT-3, la IA de Elon Musk que programa y aprende como un humano se publicó primero en INVDES.