10 hitos en el campo de la IA en los 25 años de Google

0
41

Para celebrar su 25 cumpleaños, que se cumple el 27 de septiembre, Google repasa los 10 hitos en el campo de la inteligencia artificial, un tema cada vez más recurrente.

«La IA tiene el poder de facilitar las tareas cotidianas y ayudar a resolver los mayores problemas de la sociedad», afirma la compañía en un blogpost oficial.

2001: El aprendizaje automático ayuda a los usuarios de Google Search a corregir la ortografía de las consultas
Larry Page, cofundador de Google, dijo una vez: «El motor de búsqueda perfecto tiene que entender exactamente lo que quieres decir y ofrecerte exactamente lo que necesitas como respuesta». Dimos un gran paso adelante en el avance de esta visión cuando empezamos a utilizar una versión sencilla del aprendizaje automático para sugerir la mejor ortografía en las búsquedas web. Incluso si la consulta contiene errores, los usuarios pueden obtener la respuesta que buscan.

2006: Lanzamiento del Traductor de Google
Cinco años más tarde, lanzamos Google Translate, que utiliza el aprendizaje automático para traducir automáticamente diferentes idiomas. Empezamos con traducciones del árabe al inglés y viceversa, pero hoy Google Translate es compatible con 133 idiomas hablados por millones de personas en todo el mundo. Esta tecnología puede traducir textos, imágenes e incluso conversaciones en tiempo real, rompiendo las barreras lingüísticas en la comunidad global, ayudando a las personas a comunicarse y ampliando el acceso a la información como nunca antes.

2015: TensorFlow democratiza la IA
La introducción de TensorFlow, un nuevo marco de aprendizaje automático de código abierto, ha hecho que la IA sea más accesible, escalable y eficiente. También ha contribuido a acelerar el ritmo de la investigación y el desarrollo de la IA en todo el mundo. TensorFlow es ahora uno de los marcos de aprendizaje automático más conocidos y se ha utilizado para desarrollar una amplia gama de aplicaciones de IA, desde el reconocimiento de imágenes al procesamiento del lenguaje natural y la traducción automática.

2016: AlphaGo vence al campeón mundial de GoComo parte del Google DeepMind Challenge Match, más de 200 millones de personas vieron online cómo AlphaGo se convertía en el primer programa de IA en vencer a un campeón mundial humano de Go, un complejo juego de mesa que antes se creía fuera del alcance de las computadoras. Esta legendaria victoria demostró el potencial que tiene el aprendizaje profundo para resolver problemas complejos que se creían imposibles paralas computadoras. La victoria de AlphaGo sobre Lee Sedol, uno de los mejores jugadores de Go del mundo, desencadenó una conversación mundial sobre el futuro de la IA y demostró que los sistemas de IA ya pueden aprender a dominar juegos complejos que requieren creatividad y pensamiento estratégico.

2016: Las TPU permiten una implementación más rápida y eficiente de la IA
Las unidades de procesamiento tensorial, o TPU, son chips diseñados a medida que inventamos específicamente para el aprendizaje automático y optimizados para TensorFlow. Son capaces de entrenar y ejecutar modelos de IA mucho más rápido que los chips tradicionales y, por tanto, son ideales para aplicaciones de IA a gran escala. La versión v5e, anunciada en agosto, es la TPU Cloud más versátil, escalable y rentable hasta la fecha. La TPU v5e ofrece hasta el doble de rendimiento de entrenamiento por dólar y hasta 2,5 veces más rendimiento de inferencia por por dólar para modelos LLM e IA en comparación con Cloud TPU v4.

2017: Google Research presenta Transformer
El documento de Google Research, ‘Attention Is All You Need’, presentó Transformer, una nueva arquitectura de red neuronal que ayudaba a la comprensión del lenguaje. Antes de Transformer, los ordenadores no eran muy capaces de comprender el significado de frases largas, ya que no podían entender la relación entre palabras distantes. Transformer mejoró notablemente esta situación y se convirtió en la base de los sistemas de inteligencia artificial generativa y comprensión del lenguaje más notables de la actualidad. Transformer revolucionó el sentido de la traducción, el resumen de textos, la respuesta a preguntas e incluso la generación de imágenes y la programación de robots para computadoras.

2018: BERT ayuda a Search a comprender mejor las consultas
Nuestra investigación sobre Transformer condujo a la introducción de Bidirectional Encoder Representations from Transformers, BERT para abreviar, que ayudó a Search a comprender las consultas de los usuarios mejor que nunca. En lugar de tratar de comprender palabras individuales, los algoritmos de BERT ayudaron a Google a entender las palabras en su contexto. Esto condujo a una mejora significativa en la calidad de la Búsqueda y facilitó a los usuarios hacer preguntas utilizando lenguaje natural en lugar de tener que enumerar palabras clave.

2020: AlphaFold resuelve el problema del plegamiento de proteínas
DeepMind ha dado un salto en el campo de la IA con su sistema AlphaFold, reconocido en 2020 como una solución al «problema del plegamiento de las proteínas».Las proteínas son los componentes básicos de los seres vivos y la forma en que se pliega una proteína determina su función. Los errores en el plegamiento de las proteínas pueden causar enfermedades. Desde hace 50 años, los científicos intentan predecir cómo se pliega una proteína para comprender y tratar las enfermedades. AlphaFold hace precisamente eso. En 2022, a través de la base de datos de estructuras proteicas AlphaFold, habremos compartido gratuitamente con la comunidad científica 200 millones de estructuras proteicas, que abarcan casi todos los organismos del planeta cuya secuencia genómica ha sido determinada. Más de un millón de investigadores ya han utilizado estos datos para acelerar la creación de nuevas vacunas contra la malaria en un tiempo récord, avanzar en el descubrimiento de fármacos contra el cáncer y desarrollar enzimas que se comen el plástico.

2023: Bard facilita la colaboración con la IA generativa
LaMDA, un modelo de LLM conversacional lanzado por Google Research en 2021, ha allanado el camino para que numerosos sistemas de IA generativa, entre ellos Bard, capten la imaginación en todo el mundo. Bard, que se lanzó en marzo, ya está disponible en la mayoría de los países y en más de 40 idiomas, por lo que cada vez más personas pueden utilizarlo para aumentar la productividad, acelerar las ideas y alimentar la curiosidad. No hemos hecho más que empezar a descubrir todo lo que se puede hacer con Bard, pero algunos usos populares incluyen la lluvia de ideas, la planificación de viajes y la redacción de contenidos creativos (como este artículo, aunque juro que no lo he utilizado).

2023: PaLM 2 avanza el futuro de la IA
En mayo presentamos PaLM 2, nuestro modelo LLM de nueva generación que ha mejorado sus capacidades multilingües, de razonamiento y de programación. Es más capaz, rápido y eficiente que sus predecesores y ya es la base de más de 25 productos y funciones de Google, como Bard, las funciones de IA generativa de Gmail y Workspace, y SGE, nuestro experimento de integración profunda de la IA generativa en la Búsqueda de Google. También estamos utilizando PaLM 2 para avanzar en la búsqueda interna en áreas como la sanidad y la ciberseguridad. Éstas son sólo algunas de las innovaciones en IA de Google que sustentan muchos de los productos que utilizan a diario miles de millones de personas. Guiados por nuestros principios de IA hacia un enfoque audaz y responsable de la IA, ya estamos trabajando en Gemini, nuestro próximo modelo creado para futuras innovaciones en nuestros próximos 25 años.

Fuente: Google

Custom Text
Artículo anteriorEE.UU. contra Amazon, monopolio ilegal de las compras en línea
Artículo siguienteDigitel invita a descubrir un mundo de posibilidades con 5G en la FitelVen 2023