En menos de 24 horas, Google y Microsoft han enseñado sus cartas sobre la Inteligencia Industrial (IA). El primero ha presentado esta tarde en París todas las formas en que la IA va a cambiar los diferentes de búsqueda, no sólo textuales, sino asimismo de imágenes y de voz, y en diferentes espacios mediante los mapas. A posteriori del anuncio del día aludido del asesor delegado de la compañía, Satya Nadella, sobre el tiro de Bard, el maniquí de jerga de IA que aplicará a los resultados de las búsquedas, el vicepresidente Prabhakar Raghavan, responsable de búsquedas, ha demostrado su funcionamiento y ha recordado que la pulvínulo de las IAs generativas, incluida la de OpenAI, que va a utilizar Microsoft, es Transformer, una bloque diseñada por Google.
Raghavan ha mostrado el funcionamiento de Bard en un móvil, con una búsqueda que genera los enlaces habtituales con la prontitud de siempre, y un texto adicional que se crea a último velocidad en el inicio de la pantalla para aplicar contexto y contenido a las diferentes soluciones que ofrece en los resultados. Google no ha mostrado tanto detalle como Microsoft en su explicación sobre cómo va a funcionar la IA en su buscador Bing y en su navegador Edge, pero sí ha recordado que en 2017 lanzó de forma abierta la bloque Transformer, en la que se basan las redes neuronales de IA como el que utiliza su competidor.
"Las nuevas funciones de IA generativa -ha señalado Raghavan- nos ayudarán a organizar información compleja y múltiples puntos de aspecto directamente en los resultados de búsqueda. Con esto, podrás entender rápidamente el panorama común y luego acaecer a explorar diferentes ángulos". El responsable de Google se refería a una de las críticas a las respuestas de las IA, que siempre tienden a dar una aunque existan múltiples puntos de aspecto. Para eso, Google aplicará NORA. siglas en inglés de la expresión "no hay una (sola) respuesta correcta". El directivo no aclaró cuando funcionará esa función.
Raghavan ha mostrado dos ejemplos de Bard en las búsquedas, siempre con un móvil Android. En la primera, se pedía a Google cuáles son las mejores constelaciones para observar las estrellas. La respuesta indicaba una serie de opciones secreto explicativas y una serie de enlaces debajo de estas para arribar hasta ellas. Otra demostración sobre la IA ha sido pedirle que explique los pros y los contras de comprar un coche eléctrico. Bard ha ofrecido cuatro razones favorables y cuatro contrarias.
Las demostraciones han sido mucho más someras que las ofrecidas por Microsoft sobre la puesta en marcha de la IA de OpenAI sobre su buscador Bing y su navegador Edge, lo que parece indicar que está última tiene mucho más descubierta su puesta a disposición del conocido, en este momento en letanía de retraso. Raghavan ha señalado asimismo que su compañía mantiene un firme compromiso por una IA responsable.
Las demostraciones han sido mucho más someras que las ofrecidas por Microsoft sobre la puesta en marcha de la IA de OpenAI sobre su buscador Bing y su navegador Edge. Raghavan ha señalado asimismo que su compañía mantiene un firme compromiso por una IA responsable.
El resto de la presentación de Google ha estado ligada a funciones ya presentadas en otros eventos. Google ha anunciado por otra parte la presentación a Madrid y Barcelona de las indicaciones de Live View de Maps en espacios interiores, que ofrecen una forma de guiarse por el interior de aeropuertos y centros comerciales. La compañía ha destacado que su función Lens, que permite despabilarse con sólo apuntar con la cámara del móvil, es utilizada 10.000 millones de veces al mes.
Google ha mostrado por otra parte su visión inmersiva, una función que muestrade forma tridimensional los mapas de las ciudades con gran detalle. Desde hoy está adecuado para Londres, Los Ángeles, Nueva York, San Francisco y Tokio. En los próximos meses llegará a Ámsterdam, Dublín, Florencia y Venecia.
Publicar un comentario