Por Thomas Reintjes y Georg Scholl. Publicado en Human Foundation, en la Alexander von Humboldt Stiftung, el 1 de agosto de 2022. (Ilustraciones: Martin Rümmele: Imagen de portada simbólica: Dos figuras que representan un ángel y un demonio con otra figura entre ellos. Con el adelanto de Humboldt Kosmos)
El entusiasmo por todo lo que puede hacer la inteligencia artificial es enorme, pero la gente también está preocupada por los riesgos inherentes a una tecnología que podría superarnos. Los expertos en IA de la Red Humboldt analizan lo que la IA ya puede hacer hoy, lo que le queda por aprender y los riesgos que conlleva.
El mundo entero está repleto de IA. No solo se encuentra en smartfones y altavoces; también dosifica el detergente en las lavadoras, proporciona funciones de asistencia al conductor, clasifica los correos electrónicos no deseados y traduce los textos. La humanidad tiene que agradecer a la inteligencia artificial por los avances en áreas como la secuenciación de genes, que facilitó el desarrollo de esas eficaces vacunas de ARN m en la lucha contra la pandemia de Covid. En algunas áreas de la medicina, los seres humanos y la IA trabajan de la mano, por ejemplo, en la detección del cáncer de mama en radiología. Aquí, los hallazgos se evalúan según el principio de los cuatro ojos: las imágenes son examinadas por dos personas por separado. Ahora es a menudo la inteligencia artificial la que asume el papel de segundo evaluador. Con la ayuda, entre otras cosas, de redes neuronales artificiales, el científico informático Daniel Rückert ha mejorado significativamente la calidad de las imágenes médicas. El profesor Alexander von Humboldt de IA en la Universidad Técnica de Munich está convencido de que las fortalezas de la IA y las de los humanos se complementan de manera ideal. “Por supuesto, los humanos tienen la ventaja de que pueden interpretar las imágenes correctamente, incluso si no se parecen a aquellas con las que se entrenaron. Por otro lado, las personas cometen errores, por ejemplo, cuando están cansadas. La gran ventaja del aprendizaje automático o los modelos de IA es que siempre te dan una respuesta, independientemente de la cantidad de imágenes que les muestres. Entonces, si logra que los humanos y la IA trabajen juntos, puede combinar lo mejor de ambos mundos y, con suerte, eliminar las desventajas respectivas”.
Un mundo repleto de IA
Hace mucho tiempo que la inteligencia artificial se abrió camino en muchas áreas de nuestras vidas, ya sea en la medicina, el arte y la música o en el reclutamiento. La IA y los humanos a menudo ya trabajan de la mano.
Un movimiento ingenioso asombra a la comunidad de Go
Pero la IA no solo es capaz de ayudar a las personas. En ciertas áreas ahora está comenzando a competir con éxito con ellos. Un ejemplo histórico fue la victoria de la IA en el juego de mesa estratégicamente complejo Go. En marzo de 2016, uno de los mejores jugadores de Go del mundo, el surcoreano Lee Sedol, perdió cuatro de sus cinco partidos contra el programa informático AlphaGo. Fue el movimiento 37 en el segundo partido que marcaría un nuevo hito en la inteligencia artificial. Los comentaristas no podían creer lo que veían. Parecía que alguien había hecho clic en el botón equivocado de un juego en línea. En ese momento, el jugador de clase mundial Lee Sedol parece haber intuido las implicaciones del movimiento. Salió de la habitación durante unos minutos.
Ningún jugador de alto rango había realizado nunca un movimiento comparable en el juego de mesa. Entonces, la inteligencia artificial de AlphaGo no podría haber presenciado un movimiento como ese antes. La computadora no había simplemente replicado algo que había sido programado; había aplicado su conocimiento sobre el juego inteligentemente.
¿Cómo gestiona una computadora algo así? La IA clásica se basa en reglas y símbolos y funciona bien en entornos predecibles. Se adhiere a árboles de decisión o busca soluciones a partir de una cantidad determinada de soluciones potenciales. Todo lo que sabe sobre el mundo ha sido alimentado por humanos. La IA moderna del tipo utilizado en AlphaGo, por otro lado, se basa efectivamente en nuestro cerebro. Las neuronas que están conectadas en nuestro cerebro y que a veces se activan y a veces no, se reproducen digitalmente. Responden a diferentes estímulos. “Estas neuronas digitales tienen una cosa en común con el cerebro. Están conectados a otras neuronas. Y si ‘disparan’, depende de la cantidad de información que reciban. Una neurona dispara a la siguiente según una fórmula matemática que intenta reproducir lo que ocurre entre las neuronas del cerebro”, explica el humboldtiano Christian Becker-Asano, profesor de Inteligencia Artificial en la Hochschule der Medien de Stuttgart.
Pero incluso si la inteligencia artificial algún día fuera capaz de funcionar como la inteligencia humana, si pudiera percibir el mundo como lo hacemos nosotros, probablemente aún le faltaría algo crucial: una relación emocional con lo que percibe. El humboldtiano Tobias Matzner, profesor del Departamento de Medios, Algoritmos y Sociedad de la Universidad de Paderborn, describe la diferencia entre humanos y máquinas: “Un algoritmo que mira una imagen simplemente ve filas de píxeles. Nada más. Y para un algoritmo, estos píxeles ‘son iguales a la imagen’, independientemente de si la imagen es ruidosa o si muestra a un amigo, un perro o simplemente algo borroso. Cuando miramos una imagen, inmediatamente desencadena una serie de asociaciones”. Es por eso que la IA necesita muchos más ejemplos para aprender algo nuevo que los humanos.
Por lo tanto, Milica Gašić. ganadora del premio Sofja Kovalevskaja, Universidad Heinrich Heine de Düsseldorf. quiere humanizar la forma en que aprende la IA. La ganadora del premio Sofja Kovaleskaja en la Universidad Heinrich Heine de Düsseldorf se inspira en la forma en que aprenden los animales y los niños. “Me gustaría construir sistemas que continúen desarrollándose con el tiempo como lo hacen los humanos. Todos los días, veo cómo mi pequeña hija aprende cosas nuevas, y realmente tenemos una capacidad fantástica para aprender cosas nuevas y saber qué hacer con ellas”, dice Gašić. Su objetivo es mejorar los sistemas de lenguaje para que podamos hablar con la IA tal como lo hacemos con otras personas. Hasta ahora, no es solo un uso más elocuente del lenguaje lo que les falta a las máquinas. “No debemos olvidar cuál es la esencia de la conversación humana: sobre todo, nuestras emociones y nuestra capacidad para reconocer y responder a las emociones”, enfatiza Gašić. Quiere descubrir cómo se puede mejorar la competencia lingüística de las máquinas hasta un nivel que signifique que incluso se puedan usar en consultas psicológicas. La empatía emocional juega un papel en esto. Si un robot pudiera sentir dolor, tal vez trataría a las personas con mayor empatía.
¿Qué sucede dentro de la IA de la caja negra?
La confianza mutua es uno de los requisitos previos para la comunicación libre y abierta entre las personas. Aquí, también, la IA tiene que ponerse al día. Las noticias sobre accidentes fatales causados por vehículos autónomos, autos controlados por IA o temas populares de ciencia ficción como la malvada IA que lucha por dominar el mundo inquietan a las personas. Para generar confianza, sería útil comprender cómo piensa la IA, cómo evalúa y toma decisiones.
Pero eso no es tan fácil. La mayoría de los sistemas de IA modernos son modelos de caja negra. Reciben entradas y entregan salidas. Reconocen un perro o un gato, una señal de alto o un límite de velocidad, un tumor o una enfermedad rara. Pero cómo lo hacen es su propio secreto bien guardado.
“Las redes neuronales son impenetrables”, dice Daniel Rückert. “Si queremos automatizar los procedimientos de medición, podemos usar las mediciones en la pantalla para mostrarle al radiólogo cómo la computadora ha calculado el volumen del tumor. El radiólogo también lo ve todo y puede juzgar si es correcto o no. No necesitamos explicar exactamente cómo delineamos el tumor. Sin embargo, donde comienza a complicarse es cuando desea utilizar los resultados de su modelo de IA para formular hipótesis sobre cómo se desarrollará una enfermedad, por ejemplo, o cuáles fueron los orígenes de la enfermedad”.
Christian Becker-Asano, profesor de Inteligencia Artificial en la Hochschule der Medien de Stuttgart, a veces se preocupa de que algunos científicos estén perfectamente satisfechos cuando algo funciona sin comprender lo que sucede en el fondo. Esto conduce a IA que normalmente funcionan, pero en algunas situaciones de repente no lo hacen. “Tenemos grandes logros en aplicaciones prácticas con algunos errores muy misteriosos que parecen cometer las máquinas si hay algo de ruido en la imagen. No entendemos por qué porque no sabemos qué está haciendo realmente el algoritmo en el interior”, dice Becker-Asano.
Los humanos pueden reconocer una señal de alto incluso cuando la imagen es ruidosa o los colores son incorrectos. Pero la IA puede confundirse incluso con solo una pegatina en la señal de alto, o condiciones climáticas y de luz que son diferentes a las del entorno de prueba.
“Cuando ocurre un error y el automóvil no se detiene en una señal de alto porque la IA ha clasificado algo incorrectamente, por ejemplo, teóricamente podríamos analizar la memoria de la máquina. Hay una gran cantidad de datos en la computadora y puede tomar una instantánea de la red neuronal en el momento en que la máquina comete el error. Pero todo lo que descubres es una gran cantidad de datos”, dice Becker-Asano, explicando el problema. Incluso la simple adición de más datos de entrenamiento no garantiza que algo que funcionó antes vuelva a funcionar en el futuro, enfatiza Daniel Rückert. “Precisamente porque no sabemos exactamente qué está pasando dentro de la caja negra”.
Según Tobias Matzner, hacer que la caja negra sea transparente sería un paso importante en el desarrollo de la IA para que quienes la usan puedan confiar en ella. Es importante para él que las personas entiendan qué sucede con sus datos cuando usan inteligencia artificial y que se les diga cómo sus datos pueden influir en las decisiones de los algoritmos. “Imagina que estás solicitando un trabajo. Un algoritmo rechaza su solicitud. Entonces no estás realmente interesado en cómo funciona el algoritmo, sino que te preguntas qué tendría que ser diferente en ti para que consigas el trabajo”.
La IA aprende a discriminar
Este ejemplo no fue sacado de la nada. Una importante corporación global realmente desarrolló IA que se suponía ayudaría a seleccionar a los solicitantes de empleo. La profesora Aimee van Wynsberghe de la Universidad de Bonn describe esto como un caso de discriminación por parte de la IA: “Usaron diez años de datos históricos para crear una herramienta de reclutamiento. Cuando los responsables revisaban los currículos para elegir candidatos para los puestos, se encontraron con que la máquina solo recomendaba hombres para los puestos directivos, nunca mujeres”. La explicación es que las desigualdades existentes habían llegado a los datos de entrenamiento que la IA había adoptado. Aimee van Wynsberghe sugiere aprovechar esta desventaja de la IA: “Si utiliza esta herramienta de contratación para investigar la discriminación en la cultura corporativa en lugar de como base para la contratación de nuevo personal, es una herramienta fascinante. Así es como la tecnología arroja luz sobre ciertas formas de desigualdad. Y luego tenemos una opción: ¿perpetuamos estos sistemas de desigualdad o nos detenemos y marcamos la diferencia ahora mismo? La IA tiene un enorme potencial para nuestra sociedad, pero depende de nosotros cómo decidimos usarla”.