¿Recuerdas qué es lo que hiciste el 30 de noviembre de 2022? Posiblemente fue un día como cualquier otro en tu vida y no sucedió algo extraordinario que mereciera la pena ser recordado meses después. Google no puede decir lo mismo. Ese día, por sorpresa y sin previo aviso, OpenAI sacó de la manga algo llamado ChatGPT.
Algunos movimientos empresariales son capaces de generar terremotos en la industria tecnológica cuyos efectos pueden hacer saltar las alarmas en la competencia. Y decimos pueden porque no siempre sucede (basta con recordar la respuesta reactiva de los líderes de la telefonía móvil Nokia y BlackBerry ante la aparición del iPhone en 2007).
Más que un “código rojo” en Google
El lanzamiento del chatbot conversacional de la compañía dirigida por Sam Altman ha provocado algo más que un “código rojo” en Google. La compañía de Mountain View, que actualmente lidera el mercado de las búsquedas, se encuentra por primera vez en años ante una amenaza sustancial que le ha obligado a tomar medidas drásticas.
Una de estas medidas ha sido el lanzamiento inicial (de momento solo disponible en algunos países bajo invitación) de Bard, un competidor directo de ChatGPT y su versión mejorada conectada a Internet a través de Bing Chat. ¿El problema Muchos empleados de Google consideran que estamos frente a un lanzamiento demasiado precipitado.
Según información interna vista por Bloomberg, los dirigidos por Sundar Pichai tuvieron la tarea de probar el chatbot de inteligencia artificial impulsado por LaMDA (Language Model for Dialogue Applications) antes de su despliegue. Lo cierto es que muchos de los comentarios fueron arrolladores, pero la compañía siguió de todas formas con su plan.
Los mensajes negativos entre los equipos de Google no han pasado desapercibidos. “Bard es peor que inútil: por favor, no lo lancen”, decía un empleado en febrero de este año después de avaluar la herramienta. “Es un mentiroso patológico”, apuntaba otro en relación a su tendencia a intentar información y arrojar respuestas poco precisas.
El ambiente de tensión y disgusto entre ciertos empleados de la compañía fue en aumento tras una serie de decisiones tomadas por la dirección después de lanzamiento de ChatGPT, según explica el mencionado medio estadounidense. Durante años, Google había estado trabajando en fortalecer su equipo de ética para sus iniciativas de inteligencia artificial.
La misión de este grupo de expertos era ayudar a desarrollar productos y servicios que se encontraran alineados a los principios de la compañía, con altos estándares de seguridad. Este tipo de objetivos no solo requería de muchos recursos, que Google aceptó proveer en 2021, sino de tiempo. Esto último acabó siendo un inconveniente tras el movimiento de OpenAI.
Si bien la compañía fundada por Larry Page y Sergey Brin no es una inexperta en el campo de la inteligencia artificial, muchos de sus proyectos más ambiciosos estaban limitados a convivir dentro del laboratorio. En 2022, el ritmo de desarrollo se aceleró considerablemente dejando ciertas cuestiones éticas ante elementales en segundo plano.
Las dinámicas de trabajo de Google establecen que antes de que un producto llegue al mercado se debe alcanzar un elevado puntaje en ciertas categorías. En el caso de Bard esto cambió. “Seguridad infantil”, por ejemplo, todavía tiene que alcanzar un puntaje de 100, pero “equidad” se puede admitir para un lanzamiento con 80 o 85 puntos.
Los mencionado, como decimos, corresponde a información interna vista por Bloomberg. Públicamente, el máximo responsable de Google se ha mostrado optimista con las posibilidades que brinda su chatbot de búsqueda, aunque ha señalado que todos los modelos tienen problemas de alucinaciones y ha insistido en que la seguridad es una prioridad.
Imágenes: Google
En Xataka: El oscuro secreto de ChatGPT y Bard no es lo que se equivocan e inventan. Es lo que contaminan
– La noticia “Es peor que inútil”: Google pidió a sus empleados probaran Bard y algunos lo destrozaron, según Bloomberg fue publicada originalmente en Xataka por Javier Marquez .