Con 540 mil millones de parámetros, la inteligencia artificial desarrollada por Google PaLM es uno de los modelos de lenguaje más grandes jamás construidos.
Los desarrolladores de Google están enseñando inteligencia artificial para explicar chistes, lo cual está lejos de ser mundano pero podría conducir a profundos avances tecnológicos en la forma en que estos sistemas aprenden automáticamente a analizar y responder al habla humana.
El objetivo es ampliar los límites de la tecnología de procesamiento de lenguaje natural (NLP) utilizada para los modelos de lenguaje grande (LLM) como GPT-30, que, por ejemplo, permite que los chatbots reproduzcan una comunicación humana cada vez más precisa, dando como resultado los casos más avanzados. dificulta distinguir si el interlocutor es un humano o una máquina.
Ahora, en un artículo publicado recientemente, el equipo de investigación de Google afirma haber entrenado un modelo de lenguaje llamado PaLM que no solo puede generar texto realista, sino también interpretar y explicar chistes contados por personas.
En los ejemplos que acompañan al documento, el equipo de inteligencia artificial de Google demuestra la capacidad del modelo para realizar razonamiento lógico y otras tareas de lenguaje complejas que son muy sensibles al contexto, por ejemplo, mediante el uso de una técnica llamada “cadena de pensamiento de impulso” que mejora en gran medida la capacidad del sistema para analizar problemas lógicos de varios niveles simulando el proceso de pensamiento de un ser humano.
Al “explicar chistes”, el sistema muestra que entiende el chiste y usted puede encontrar el truco de la trama, el juego de palabras o el estallido sarcástico en el chiste, como puede ver en este ejemplo.
Broma: ¿Cuál es la diferencia entre una cebra y un paraguas? Uno es un animal rayado relacionado con los caballos, otro es un dispositivo que usas para evitar que la lluvia te caiga encima.
AI Explicación: Esta broma es una anti-broma. El chiste es que la respuesta es obvia, y el chiste es que esperabas una respuesta divertida.
Ejemplos en inglés de chistes y explicaciones de la inteligencia artificial desarrollada por Google
Detrás de la capacidad de PaLM para analizar estas indicaciones se encuentra uno de los modelos de lenguaje más grandes jamás construidos, con 540 mil millones de parámetros. Los parámetros son los elementos del modelo que se entrenan durante el proceso de aprendizaje cada vez que el sistema recibe datos de muestra. El predecesor de PaLM, GPT-3, tiene 175 mil millones de parámetros.
El creciente número de parámetros ha permitido a los investigadores obtener una amplia gama de resultados de alta calidad sin perder tiempo entrenando el modelo para escenarios individuales. En otras palabras, el rendimiento de un modelo de lenguaje a menudo se mide por la cantidad de parámetros que admite, siendo los modelos más grandes capaces del llamado “aprendizaje en unos pocos intentos”, o la capacidad de un sistema para aprender una variedad de tareas complejas. con relativamente pocos ejemplos de entrenamiento.
SIGUE LEYENDO
Rusia toma medidas para sancionar a Google por YouTube falso