BBC News Mundo

¿Qué hace el «equipo de cerebros» de Google?

Como director de Inteligencia Artificial (IA) del gigante tecnológico, Dean no solo es responsable de liderar un departamento que es crucial para el futuro de Google.

Una de las primeras tareas que Jeff Dean tuvo que resolver en Google fue el problema que representaba para las máquinas el cambio de siglo. Getty Images

Para ser alguien que está a cargo del avance de una tecnología que, en palabras del director ejecutivo de Google, tiene implicaciones más profundas que la electricidad y el fuego, Jeff Dean es un hombre notablemente tranquilo.

Como director de Inteligencia Artificial (IA) del gigante tecnológico, Dean no solo es responsable de liderar un departamento que es crucial para el futuro de Google.

Su trabajo es crucial para el futuro de la actividad humana en la Tierra.

Que semejante tarea cósmica no perturbe a Dean, que se mantiene zen incluso en medio del furor del Foro Económico Mundial en Davos, es quizá poco sorprendente.

Una de sus primeras intervenciones en Google implicó lidiar con una amenaza que, «con toda probabilidad», se originaba en el espacio.

Rayos del espacio

En ese entonces, con el cambio de siglo, el motor de búsqueda de Google empezó a funcionar mal y el pequeño grupo de codificadores que entonces la integraban no lograba hallar la causa.

Fue Dean, junto con su amigo cercano Sanjay Ghemawat, quien diagnosticó el problema extraterrestre.

Google estaba utilizando hardware barato, explica Dean. «Todo estaba como atado con alambre y pegado con chicle», y por eso era susceptible a sufrir un «evento de pocas probabilidades».

Números
Dean y Ghemawat descubrieron dónde estaba el problema que podía hacer que los unos se transformaran en ceros y viceversa con el inicio del año 2000. Getty Images

«Un rayo en particular, proveniente del espacio, podía llegar e impactar en una de las células de memoria que guarda un bit -un cero o un uno- y cambiarlo a un uno o a un cero».

«Esto es muy malo si estás manipulando mucha información, porque de repente, unos pocos bits pueden cambiar de forma aleatoria y corromper la data», agrega.

«La mayoría de las máquinas hoy día tienen hardware para protegerse ante esta situación. Pero las primeras máquinas que estaba usando Google no lo tenían«.

Hoy, en cambio, son las máquinas de última tecnología de Google las que preocupan a Dean y, en particular, una que utiliza el Brain Team (o «equipo de cerebros»).

Su misión («hacer que las máquinas sean inteligentes y mejorar la vida de la gente») no puede ser más ambiciosa, aunque las aplicaciones actuales de IA en Google sean un poco más mundanas.

Es el aprendizaje que hacen las máquinas lo que le permite a los usuarios de Google encontrar sus fotos buscando los objetos que aparecen en ellas (escribiendo «casa» o «gato», por ejemplo), y lo que está detrás de las herramientas para el reconocimiento de voz, que pueden transformar un audio en distintos idiomas en texto.

La herramienta de traducción de Google es otro de los triunfos del equipo de IA, así como también un ejemplo de la forma en que los algoritmos pueden «aprender del mundo tal y como es, y no de la manera en que nos gustaría que fuera».

Batalla contra la desigualdad de género

Cuando un algoritmo recibe una gran cantidad de texto, explica Dean, se enseña a sí mismo a reconocer las palabras que normalmente suelen ir juntas.

Carpintero
Gracias a un algoritmo, Google reconoce por ejemplo que la palabra carpintero está asociada con la palabra martillo. Getty Images

«Así puedes reconocer, por ejemplo, una connotación desafortunada, que es que la palabra ‘doctor’ está más asociada con ‘él’ que con ‘ella'».

«Pero también aprendes que ‘cirujano’ está asociado con ‘escalpelo’ y que ‘carpintero’ está asociado con ‘martillo’. Gran parte de la fortaleza de estos algoritmos es que pueden aprender este tipo de patrones y correlaciones».

La tarea, dice Dean, es entender qué sesgos quieres que reconozca un algoritmo. Y esto es precisamente lo que están tratando de hacer quienes trabajan en el área de la IA.

«Es muy difícil decir que vamos a crear una versión perfecta de un algoritmo sin sesgos».

La lucha de LinkedIn

Un ejemplo sorprendente de una empresa que lucha con estos problemas es la red de profesionales LinkedIn.

Allen Blue
Blue, fundador de LinkedIn, se dio cuenta de que en sus listas aparecían pocas mujeres y siempre hacia el final. WEF

Cuando sus 562 millones de usuarios ingresan a sus cuentas, ven recomendaciones para puestos de trabajos y conexiones laborales diseñadas exclusivamente para ellos (generadas gracias a la IA).

Algo más importante aún es que los encargados de selección de personal que usan LinkedIn ven una lista de candidatos ideales, filtrados por los procesos de aprendizaje de la máquina.

Sin embargo, el cofundador del sitio, Allen Blue, identificó rápidamente un problema con este proceso: en las listas, en la parte superior de las mismas no aparecían muchas mujeres.

«Lo que pudimos hacer fue decir: vamos a corregir el algoritmo«, dice Blue, «para que nos muestre en igual proporción, hombres y mujeres que responden al criterio de búsqueda, y que los ordene de forma tal que las mujeres no queden accidentalmente debajo».

Más diversidad

Pero arreglar este problema de IA fue solo la punta del iceberg, agrega.

«Solo ahora estamos llegando a un lugar en el que entendemos cómo es posible construir un algoritmo de aprendizaje automático con las mejores intenciones posibles, pero que sigue introduciendo sin querer un sesgo en los resultados», explica Blue.

Reconocimiento facial
Los primeros intentos para desarrollar tecnología que permitiese el reconocimiento facial se toparon con el problema del sesgo racial. Getty Images

Su ejemplo favorito es el del reconocimiento facial.

«Las primeras versiones del reconocimiento facial se entrenaron con fotos de famosos que son mayormente blancos y hombres, y eso quiere decir que hay un 97% de precisión con hombres blancos pero un 3% de precisión con mujeres africanas«.

No se puede remediar si no se aumenta la diversidad de aquellos que construyen los algoritmos de IA, argumenta.

«Cuando miramos gente (en LinkedIn), que de hecho tiene conocimiento de IA, solo el 22% son mujeres», señala Blue.

Lo que es peor, añade, es que «las mujeres tienden a ejercer roles que están más orientados hacia la investigación y la enseñanza, mientras que los hombres tienden a ocupar roles más orientados hacia el liderazgo».

A pesar de la prevalencia de este sesgo, Blue y Dean muestran gran entusiasmo cuando se centran en las características positivas de la IA.

Cuando se trata de reclutar, dice Blue, las computadoras pueden incluso enseñarnos a eliminar los errores humanos.

Sistemas para prevenir inundaciones

«Cuando vas y hablas con alguien cara a cara, puedes leer a la otra persona, notar su energía o lo que sea, a partir de tu propia idiosincrasia (que por lo tanto, es sesgada) y de tu propia visión de qué hace que una persona sea buena para tu compañía.

«La inteligencia artificial puede ayudarte a separar esta sensación buena que tienes, desde un punto de vista que elimina el prejuicio«.

Inundación

Getty Images
Uno de las programas que desarrolló el equipo de IA de Google permite predecir el riesgo de inundación.

Para Dean su gran logro es el trabajo que los equipos de IA de Google han estado haciendo en temas humanitarios en el mundo, por ejemplo, el trabajo sobre sistemas que pueden predecir inundaciones y réplicas tras un terremoto.

Un área en la que están trabajando es la de salud y biociencias. Esto ha llevado a la creación de herramientas que permiten diagnosticar una enfermedad llamada retinopatía diabética, sin necesidad de recurrir a un oftalmólogo.

Estas aplicaciones de la IA son las que Dean ha tratado de destacar en el Foro Económico Mundial, donde sesión tras sesión se discutía sobre la privacidad de los datos y las preocupaciones sobre la gobernabilidad en torno a esta tecnología.

Dean asegura que los principios internos de Google ayudarán a evitar que se haga un uso malintencionado de la IA y reveló, además, que su equipo «decidió no publicar algunos trabajos que podrían tener implicaciones negativas».

Pero dice que la forma de protegerse contra el uso malintencionado de la IA es consiguiendo al tipo adecuado de seres humanos inteligentes para trabajar en este sector.

«Necesitamos más gente trabajando en esta clase de áreas y más gente entusiasmada con ello», dice.

«Porque así es como se progresa y se resuelven muchos de los problemas en la sociedad».


Ahora puedes recibir notificaciones de BBC Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.

https://www.youtube.com/watch?v=QN3TGUy8GZI

https://www.youtube.com/watch?v=uYILcPTz17E

https://www.youtube.com/watch?v=0tymIOx-Fv8

BBC News Mundo
×

Apoye el periodismo independiente. Lo invitamos a compartir este contenido.

Comparte nuestro enlace: