Notasbit

Las mejores noticias de tecnología en un sólo lugar

Publicado por: Microsiervos

Publicado en: 23/08/2019 11:47

Escrito por: [email protected] (Alvy)

GPT-2 permite experimentar cómo escribe una inteligencia artificial frase a frase. Y no lo hace nada mal

Los avances en inteligencia artificial son tan asombrosos hoy en día que es difícil seguir la pista de todas las novedades y lo que se puede hacer con los algoritmos más avanzados. Por suerte algunas son formas divertidas de explorar la inteligencia artificial.

Talk to Transformer es un experimento de Adam King en el que se escribe una frase y un algoritmo basado en una red neuronal, llamado GPT‑2, lo completa generando un texto con sentido. De momento está disponible sólo en inglés, peor es cuestión de alimentarlo con más datos.

GPT-2 utiliza software de OpenAI, una organización dedicada precisamente a crear inteligencias «más humanas que los humanos». Es un modelo que sirve para generar frases completas y con sentido, relacionadas con el contexto. Lo cual va bastante más allá del viejo pero resultón truco de las cadenas de Markov para inferir las «siguientes palabras» de cualquier texto.

Como se puede comprobar GPT-2 funciona con frases completas y aunque no siempre es coherente ha servido bastante bien hasta ahora para ayudar en labores de traducción, creación de resúmenes y similares. Se puede aprender más sobre el tema en esta anotación: Better Language Models and Their Implications.

Aunque en TNW dicen que es casi, casi está como para pasar el test de Turing a mi me parece una afirmación un poco arriesgada. Eso sí: humorísticamente dicen también que puede venir bien a los guionistas de Hollywood escasos de ideas o para crear diálogos y escenas para las nuevas entregas de Batman. …

Top noticias del 23 de Agosto de 2019