Nvidia presenta tecnología de IA conversacional para bots más inteligentes

Nvidia presenta tecnología de IA conversacional para bots más inteligentes
4.9 (98.33%) 12 votos

Este sitio puede ganar comisiones de afiliación de los enlaces en esta página. Términos de Uso. Jen-Hsun Huang de Nvidia anunciando el DGX-1 en GTC 2016

Ahora que casi todos los dispositivos y dispositivos móviles posibles han adoptado o al menos experimentado con el control por voz, la inteligencia artificial conversacional se está convirtiendo rápidamente en la nueva frontera. En lugar de manejar una consulta y proporcionar una respuesta o acción, la IA conversacional tiene como objetivo proporcionar un sistema interactivo en tiempo real que puede abarcar múltiples preguntas, respuestas y comentarios. Si bien los bloques de construcción fundamentales de la IA conversacional, como BERT y RoBERTa para el modelado de idiomas, son similares a los del reconocimiento de voz de una sola vez, el concepto viene con requisitos de rendimiento adicionales para capacitación, inferencia y tamaño del modelo. Hoy, Nvidia lanzó tres tecnologías de código abierto diseñadas para abordar esos problemas.

Entrenamiento más rápido de BERT

Nvidia DGX SuperPODSi bien en muchos casos es posible utilizar un modelo de lenguaje pre-entrenado para nuevas tareas con solo un poco de ajuste, para un rendimiento óptimo en un contexto particular es necesario volver a entrenar. Nvidia ha demostrado que ahora puede entrenar BERT (modelo de lenguaje de referencia de Google) en menos de una hora en un DGP SuperPOD que consiste en 1, 472 GPU Tesla V100-SXM3-32GB, 92 servidores DGX-2H y 10 Mellanox Infiniband por nodo. No, ni siquiera quiero intentar estimar cuál es el alquiler por hora para uno de esos. Pero dado que los modelos como este generalmente han tardado días en entrenarse incluso en clústeres de GPU de alta gama, esto definitivamente ayudará a comercializar a las empresas que pueden pagar el costo.

Recomendamos:  El ataque de phishing se dirige a los propietarios de iPhones robados para extraer contraseñas

Inferencia de modelos de lenguaje más rápido

Para conversaciones naturales, el punto de referencia de la industria es el tiempo de respuesta de 10 ms. Comprender la consulta y obtener una respuesta sugerida es solo una parte del proceso, por lo que debe tomar menos de 10 ms. Al optimizar BERT usando TensorRT 5.1, Nvidia tiene inferencias en 2.2ms en una Nvidia T4. Lo bueno es que un T4 está realmente al alcance de casi cualquier proyecto serio. Los usé en Google Compute Cloud para mi sistema de generación de texto. UNA 4-vCPU servidor virtual con un T4 alquilado por poco más de $1/ hora cuando hice el proyecto.

Soporte para modelos aún más grandes

Se necesita una inferencia más rápida para la IA conversacionalUno de los talones de las redes neuronales de Aquiles es el requisito de que todos los parámetros del modelo (incluida una gran cantidad de pesos) deben estar en la memoria a la vez. Eso limita la complejidad del modelo que se puede entrenar en una GPU al tamaño de su RAM. En mi caso, por ejemplo, mi computadora de escritorio Nvidia GTX 1080SEEAMAZON_ET_135 Ver Amazon Comercio ET solo puede entrenar modelos que se ajusten a sus 8GB. Puedo entrenar modelos más grandes en mi CPU, que tiene más RAM, pero lleva mucho más tiempo. El GPT completo2 modelo de lenguaje tiene 1.5 mil millones de parámetros, por ejemplo, y una versión extendida tiene 8.3 mil millones

Sin embargo, Nvidia ha ideado una forma de permitir que múltiples GPU trabajen en la tarea de modelado de idiomas en paralelo. Al igual que con los otros anuncios de hoy, han abierto el código para que suceda. Tendré mucha curiosidad si la técnica es específica de los modelos de lenguaje o si se puede aplicar para permitir el entrenamiento de GPU múltiple para otras clases de redes neuronales.

Recomendamos:  ▷ Próximos juegos para PC: los mejores juegos que se esperan en 2019 y más allá

Junto con estos desarrollos y el lanzamiento del código en GitHub, Nvidia anunció que se asociarán con Microsoft para mejorar los resultados de búsqueda de Bing, así como con Clinc en agentes de voz, Passage AI en chatbots y RecordSure en análisis de conversación.

Ahora lee:

Dejános tus Comentarios: