Es el máximo responsable legal de Google. El abogado que trata con los gobiernos a la hora de definir las futuras regulaciones. Kent Walker es el Presidente de Asuntos Globales de Alphabet y ahora mismo su papel es más relevante que nunca. El mundo tecnológico se enfrenta con la inteligencia artificial a una revolución como no la hay desde la creación de internet. Un nuevo paradigma que requiere de nuevas leyes y presenta múltiples desafíos. Y pocas personas en el mundo tienen una mejor perspectiva de este inmenso reto que Kent Walker.
Aprovechando su visita a Málaga para inaugurar el nuevo centro de ciberseguridad, desde Xataka hemos tenido la oportunidad de hablar con él para conocer su visión sobre el impacto de la IA, cómo cree Google que debería tratarse y cuál es su opinión sobre el panorama legislativo actual.
A sus espaldas está la responsabilidad de defender a Google frente a las acusaciones de monopolio y de reunirse con los principales políticos de todo el mundo. Pero su larga trayectoria le da un bagaje enorme. Educado en las universidades de Harvard y Stanford, trabajó como asistente en el Departamento de Justicia de Estados Unidos y como asesor general adjunto en Netscape y eBay. Posteriormente se unió a Google en 2006.
“No es solo por el sol que estamos aquí”, responde Walker cuando le preguntamos sobre el GSEC de Málaga. “De alguna manera, esto es como Silicon Valley donde tenemos un lugar atractivo para que la gente venga. Hay una comunidad de emprendedores creciente junto a un buen número de startups. Eso lleva a que se compartan conocimientos e información. En el mundo de la ciberseguridad, mucha de la investigación más puntera no ocurre necesariamente en las universidades. Y sí viene por la experiencia práctica”.
Google tiene clara su postura con la IA
Aunque la ciberseguridad era el tema principal de la inauguración del centro en Málaga, el tour de Kent Walker por Europa durante estas semanas se ha centrado en el impacto de la inteligencia artificial y la agenda regulatoria. “Por supuesto, a muchas personas les preocupa cómo puede evolucionar esta tecnología”, reconoce Walker sobre la IA. Pero no es un debate que haya surgido ahora con el auge de ChatGPT. Recuerda que en 2018, Google ya publicó sus primeros principios sobre IA.
La inteligencia artificial está en boca de todos ahora mismo. ¿Cómo resumirías el enfoque que tiene Google respecto a la IA?
“Nuestra aproximación a la IA es que debemos ser valientes y responsables. Y vemos que son dos caras de la misma moneda. Necesitamos aprovechar las oportunidades de la inteligencia artificial, que son enormes. Hay un gran potencial para mejorar la productividad, para mejorar el rendimiento de la economía y para avanzar en la frontera de la ciencia. De múltiples y emocionantes formas. Estamos trabajando con la Universidad John Hopkins en combatir la hemorragia cerebral. Antes se necesitaban horas para un escaneo y ahora es cuestión de segundos”.
Hemos visto que están los tecnoptimistas y quienes abogan por frenar. ¿Está la IA avanzando demasiado rápido? ¿Cuál es tu visión sobre sus efectos positivos y negativos?
“Estamos en el medio-optimista. La gente ha estado utilizando la IA desde hace decenas de años si han estado usando los servicios de Google. Si han usado Google Search, Translate o Maps, han estado usando la IA. Estos últimos avances, que vienen de investigaciones que publicamos hace unos años, han sido muy emocionantes en reunir todo el pensamiento del idioma humano y aplicarlo en nuevas clases de desafíos”.
“Ahora podemos predecir el clima en minutos en un ordenador de manera equivalente a lo que antes un supercomputador hacía en horas. Podemos ser mucho más efectivos anticipando cuando van a haber inundaciones. Hemos visto el trabajo de AlphaFold, con 200 millones de proteínas. Un estudiante de biología tardaba entre tres y cuatro años para entenderlas. Ahora hemos hecho 200 millones en tres semanas con el equipo de DeepMind en París y Londres. Nos hemos ahorrado millones de años en tiempo de investigación. Es como si cada hombre o mujer en Europa fuera doctorado en biología y se pusieran a estudiar proteínas”.
Déjame preguntarte sobre un desafío concreto, el del copyright. El CEO de Warner Music defiende que “el nombre, la imagen y la voz deberían tener la misma protección legal que el copyright”. ¿Qué impacto va a tener la IA en la industria creativa y Hollywood?
“Estamos trabajando con los estudios de música y otros para conseguir una situación de win-win. Imagina que quisiéramos que Taylor Swift nos cantase el cumpleaños feliz a nuestros niños. Debe haber una forma de crear eso, aunque nunca haya existido antes. Y tiene que haber alguna forma de que Taylor Swift sea remunerada por ello. Sus representantes ganan y los usuarios ganan. Tenemos que colaborar de manera positiva y nuestro equipo de Youtube está en ello. Creemos que es algo sensible, no queremos que la gente pueda saltarse el copyright. Estamos trabajando en ello”.
“Al mismo tiempo, es importante reconocer que estas herramientas están aprendiendo la forma en la que se crean las imágenes y el lenguaje. Es como una niña que aprende cuando va a un museo y observa todas las pinturas a su alrededor. Y vuelve a casa y acaba dibujando basándose en lo que recuerda del museo. Tenemos que encontrar el equilibrio correcto entre reconocer el legítimo interés de artistas y creadores al tiempo que permitimos la innovación de nuevos sistemas para hacer su trabajo”.
En el ejemplo de Taylor Swift. ¿En este momento la ley acepta ese tipo de creaciones?
“Los tribunales están trabajando en ello en estos momentos. En los Estados Unidos, tenemos el concepto de uso justo“.
Que no existe en Europa.
“No de la misma manera. Europa ha tenido otras leyes que han permitido que funcione la indexación web para las búsquedas, por ejemplo. Igualmente creo que Europa está buscando encontrar cuál es el equilibrio correcto. La Directiva europea del Copyright tiene una disposición que habla sobre la exclusión voluntaria. Y que se permite hacer lo que se llama minería de texto y datos, siempre y cuando se le dé al creador de la información el derecho de optar por no participar. Google proporciona una opción de exclusión llamada Google Extended“.
“Es un derecho de exclusión voluntario proporcionado por Google. Permite a las personas decir que quieren continuar en las búsquedas, pero no quieren que se les use para entrenar a la IA. Es una medida que va en relación al trabajo que estamos haciendo y a cómo creamos una IA segura. El cómo conseguimos un marco para la IA que sea seguro para todos es una pieza importante del rompecabezas”.
Un difícil problema regulatorio
Con la inteligencia artificial cada día es una nueva noticia. En el momento de transcribir esta entrevista, Google ha lanzado su nuevo modelo de lenguaje: Gemini. Pero también en los despachos del Parlamento Europeo, los políticos encargados de llevar adelante la AI Act han estado más de 15 horas debatiendo sobre todos los matices de esta regulación. Una larga jornada de debate donde finalmente la conclusión ha sido aplazada.
No es casualidad, la regulación de la IA es uno de los asuntos que las instituciones deben afrontar. Y Google, con Kent Walker como máximo responsable de este ámbito, es una de las empresas más activas en hacer lobby sobre inteligencia artificial.
Aunque las empresas como Google no forman parte de las negociaciones para implementar la regulación, su visión sí es muy relevante. Y, visto el historial de sanciones millonarias, se esfuerzan en que las futuras leyes se alineen al máximo con sus intereses.
“Durante mucho tiempo hemos dicho que la IA es demasiado importante como para no regularla y demasiado importante como para no regularla bien”, explica Walker. “La carrera debería ser por tener las mejores regulaciones de IA, no por tener las primeras regulaciones de IA. No buscar soluciones fáciles, sino hacer concesiones difíciles entre seguridad y apertura, entre acceso a los datos y privacidad, entre explicabilidad y precisión”.
El G7 ha decidido crear un ‘Código de Conducta para la IA’. Pero una de las críticas es que es voluntario. ¿Cuáles están siendo los aspectos más difíciles de abordar en el debate sobre regulación de la IA?
“Del framework del G7 y sus 11 principios esperamos que sean una guía para toda la regulación que viene. Hay un riesgo de que si cada jurisdicción regula a su propia manera, habrá una fragmentación y eso frenará la innovación y el uso de estas herramientas”.
“Creo que es importante preguntarse si queremos regular los ‘inputs’ o los ‘outputs’. Es decir, si por ejemplo queremos regular las emisiones de un coche, lo que controlaríamos es lo que sale del tubo de escape, pero no regularíamos cuánto aluminio se utiliza para el motor. Lo mismo aquí. Creemos que poner el foco sobre las aplicaciones y usos específicos es un enfoque más adecuado. Los problemas en el ámbito bancario no serán los mismos que el ámbito de la salud o de los productos comerciales”.
¿Cuál es tu perspectiva sobre la AI Act? ¿Estáis pendiente de los últimos estados de la negociación?
“Hay un informe público de que el siguiente episodio de Unión Europea es el 6 de diciembre y de que la Presidencia española está trabajando intensamente para cerrar este proyecto durante su mandato este año. Obviamente hay muchas idas y venidas de las que no estamos al tanto, pero hemos visto declaraciones públicas de unas 150 compañías de toda Europa que apoyan un régimen flexible que fomente la adopción de la IA. Las líderes de las asociaciones empresariales francesas y alemanas han estado esperando y han dicho que hay que tener cuidado con sobreregular o regular mal”.
¿Qué puntos concretos son los más polémicos?
“Hay un montón de problemas diferentes. Uno de ellos tiene que ver con si se mantiene un framework proporcionado basado en riesgos, o si se tiene una regulación especial para las IA de propósito general. Hay mucho debate sobre ello. También hay preguntas sobre el tema del copyright que hemos comentado antes. Hay discusiones sobre la estructura de la supervisión sobre la IA y qué tipo de monitorización y auditorías se deben hacer. Y cómo pueden las empresas más pequeñas en particular lidiar con algunas de estas. ¿Provocará eso que sea más difícil para las pequeñas empresas desarrollar su IA?”
¿Entienden realmente estos políticos toda la complejidad que conlleva la IA?
“Sí, realmente esta es una tecnología nueva para todos nosotros. Y he estado trabajando en tecnología durante muchos años. John L. Hennessy, presidente de Alphabet, que llegó a presidir la Universidad de Stanford y que ganó el Premio Turing, el equivalente al Nobel de las ciencias de la computación, ha dicho que nunca ha visto nada así en su carrera. Está cambiando la forma en la que se hace la informática. Por ello no creo que los reguladores o los políticos necesiten ser expertos en IA, aunque es importante que estén abiertos a escuchar a los expertos sobre cómo se hace esto. Es una tecnología inusual porque se está avanzando principalmente en el sector privado, no en el público. ¿Cómo conseguimos que estemos todos al día Por ello hemos creado estos seminarios sobre ciberseguridad en universidades de toda Europa. Necesitamos una nueva generación de personas, pero eso requiere tiempo. Cuanto más podamos estimular a la población, mejor para todos. Mientras tanto, alentar a los reguladores que escuchen a los distintos expertos”.
“Y hay algo más, que no todos los expertos opinan igual en estos asuntos. Algunos hablan de la trampa del hype de la IA. Ahora es maravillosa; ahora es terrible. Es el cielo o el infierno. Nadie escribe que la IA es una tecnología complicada con sus pros y sus contras. Es natural para los humanos que pongamos el foco sobre los riesgos de una nueva tecnología. Es importante que no demos por sentado los beneficios de la IA. Pero hemos hablado de que la IA puede mejorar un 70% nuestra ciberseguridad. Piensa en la manera en la que se pueden personalizar nuestros medicamentos o mejorar la investigación en fusión nuclear”.
El papel de Google en la geopolítica mundial
Si algo caracteriza a las BigTech es su alcance y poder global. Desde Europa se creó la Ley de Mercados Digitales precisamente para hacerles frente y aumentar las exigencias. Salvo quizás Microsoft, ninguna empresa tiene tanta influencia sobre la geopolítica mundial como Google. Y Kent Walker es la persona encargada de tratar con los gobiernos. Es el representante de Google frente a Europa, frente a China y frente a sus propios representantes públicos de los Estados Unidos.
El propio Sundar Pichai reconocía que China es uno de los países que va a liderar el campo de la IA. ¿Cómo percibís la posición tecnológica de China
“Creo que es importante reconocer que China tiene una experiencia tecnológica significativa y buenas inversiones. Hay quien dice que muchos de sus modelos de lenguaje están basados en los de Estados Unidos, pero hay informes que dicen que China está detrás del 40% de los grandes modelos de lenguaje. Hay una gran competencia geopolítica para avanzar en estas tecnologías. Al final, la mejora tecnológica y la productividad son claves para tener influencia geopolítica”.
¿Cuál es el rol de Google allí?
“La mayoría de nuestros productos no están disponibles en China y no lo han estado durante mucho tiempo. Somos una empresa, no un país. Queremos trabajar con países que están alineados con valores democráticos, con la apertura y la protección de los derechos humanos”.
¿Estáis logrando avances?
“No es un foco para nosotros en estos momentos”.
Hablamos de China como origen de ciberataques, pero no de Estados Unidos. ¿Cómo es su estrategia ofensiva ¿Qué pasa con los “bad guys” estadounidenses?”
“Es una pregunta que sería mejor para nuestros expertos técnicos, que tendrán mejor conocimiento sobre ello. Diría que hay cibercriminales en cada país y víctimas de ciberataques también en cada país. El informe que hemos visto de la Unión Europea es que tuvo ataques de ransomware por valor de 290.000 millones de dólares. Es una estadística impresionante. Es un problema global, con los cibercriminales privados y los de los estados”.
La relación entre Estados Unidos y Europa ha permitido un nuevo tratado de datos transoceánicos, pero en los anteriores intentos hemos visto que se ha tumbado en los tribunales. ¿Tendremos un Schrems III? ¿Son incompatibles las visiones de privacidad entre EEUU y Europa
“No creo que sea así. Creemos que Europa y Estados Unidos son grandes compañeros digitales. Tres cuartos del contenido digital en el mundo se ha creado entre Europa y Estados Unidos. Las economías tienen muchas formas de beneficiarse unas de otras.”.
Esa es la perspectiva política. ¿Y la legal?
“En el aspecto legal, ambas partes han tomado medidas importantes para asegurarse de tener los regímenes adecuados. Los Estados Unidos han creado un tribunal especial de revisión para esto. Han designado a un ex fiscal general para supervisarlo, Eric Holder. Creemos que se trata de un marco muy sólido, y los abogados, tanto en Europa como en Estados Unidos, que han trabajado en él, creen que es adecuado y que sobrevivirá a la revisión de los tribunales europeos”.
Larga vida y prosperidad
En “la época de Amok”, el primer episodio de la segunda temporada de ‘Star Trek: La serie original’, Spock pronuncia una de sus frases más famosas: “larga vida y prosperidad”. Este saludo, que representa una visión optimista del avance tecnológico, encaja justo como piensa Kent Walker, quien se reconoce como fan de la saga de ciencia ficción. “Cuando era niño, Star Trek hablaba del espacio como “la última frontera”. Pero no lo creo: la ciencia es una frontera sin fin. Con riesgo, pero también con oportunidades ilimitadas”, describe Walker.
La tecnología ha traído grandes avances, pero también ha dado un poder desmedido a las Big Tech. Hace ya muchos años que se guardó en un cajón aquel lema del ‘Don’t Be Evil’. Sobre este papel de las grandes tecnológicas va nuestra última pregunta.
A raíz del juicio antimonopolio contra Google, se ha llegado a decir que las Big Tech sois como la nueva industria del tabaco. ¿Cómo percibes esa imagen?
“Bueno, en Estados Unidos las encuestas muestran que hay una gran mayoría de la población que aprecia los servicios técnicos y la tecnología que utilizan cada día. Durante el Covid por ejemplo, que fueron muy valiosos. La gente reconoce esto en todo el mundo, en Europa, Asia, Estados Unidos… entienden el valor que ofrecen los servicios tecnológicos. Es nuestra responsabilidad asegurar que estamos abordando las preocupaciones con respecto a la privacidad, a la moderación de contenidos, la economía… y creo que esto es precisamente lo que estamos intentando hacer. Es natural, a medida que el mundo se vuelve más digital, que el enfoque se ponga sobre los problemas digitales. Necesitamos hacer nuestra parte. Necesitamos trabajar con la industria y necesitamos trabajar con los gobiernos para que funcione”.
Walker desconoce qué pasará los próximos años, pero sí nos contesta sobre qué ha condicionado su visión del futuro. “Lo que me encantó de Star Trek, cuando empecé a verlo de niño, fue que tenía una visión optimista del futuro. La humanidad tratando de avanzar y explorar nuevos mundos, empujando las fronteras de lo conocido. Ahora hablamos de la ciencia como una frontera sin fin y de la capacidad de la humanidad de poder hacer lo que queramos, de seguir haciendo cosas grandes. Muchas otras películas tienen una visión deprimente y pesimista de los desafíos. Creo que es bueno a veces entender que pueden haber narrativas positivas sobre lo que hemos logrado y lo que aún podemos lograr”.
– La noticia Google ante el mayor reto de su historia. Hablamos con Kent Walker, el abogado que lidera la estrategia global de Google frente a la IA fue publicada originalmente en Xataka por Enrique Pérez .