Skip to content

Bill Gates advierte de los riesgos de la Inteligencia Artificial. La democracia está en riesgo, dice

17 julio, 2023
En su Blog, Bill Gates cuenta cómo  en los próximos años, la IA ayudará a las personas a ser más eficientes en su trabajo pero representa riesgos para la democracia y educación.

– Gates menciona que la IA será capaz de escribir correos electrónicos y gestionar la bandeja de entrada de las personas, lo que aumentará la productividad.

– Durante esta transición hacia un lugar de trabajo impulsado por la IA, algunos trabajadores requerirán apoyo y reciclaje para no quedarse rezagados.

– La historia nos muestra que la introducción de nuevas tecnologías ha generado cambios significativos en el mercado laboral, como la Revolución Industrial y la introducción de los PC.

– La IA ha mostrado prejuicios en sus modelos, como sesgos de género y raciales, lo cual es un riesgo según Bill Gates.

– Los algoritmos de IA pueden reflejar y amplificar los prejuicios existentes contra personas de diferentes identidades de género, razas y etnias.

– Los modelos de IA analizan grandes cantidades de texto disponible en Internet para encontrar patrones en el lenguaje humano.

– Los prejuicios en los modelos de IA son el resultado de cómo funcionan los algoritmos que buscan patrones lingüísticos.

– Es importante comprender cómo funcionan los modelos de IA más comunes para entender por qué se producen los prejuicios.

– Los prejuicios en la IA deben ser abordados y corregidos para garantizar un uso equitativo y justo de esta tecnología.

Index

Aquí la traducción de su post, GatesNotes:

Los riesgos creados por la inteligencia artificial pueden parecer abrumadores. ¿Qué ocurre con las personas que pierden su trabajo a manos de una máquina inteligente? ¿Podría la IA afectar a los resultados de unas elecciones? ¿Y si una IA futura decide que ya no necesita a los humanos y quiere deshacerse de nosotros?

Todas estas preguntas son válidas y hay que tomárselas en serio. Pero hay buenas razones para pensar que podemos hacerles frente: No es la primera vez que una gran innovación introduce nuevas amenazas que hay que controlar. Ya lo hemos hecho antes.

Ya fuera la introducción de los automóviles o el auge de los ordenadores personales e Internet, la gente ha superado otros momentos de transformación y, a pesar de muchas turbulencias, al final ha salido mejor parada. Poco después de la aparición de los primeros automóviles, se produjo el primer accidente de tráfico. Pero no prohibimos los coches: adoptamos límites de velocidad, normas de seguridad, requisitos para la obtención del carné de conducir, leyes sobre la conducción bajo los efectos del alcohol y otras normas de circulación.

Ahora estamos en la primera fase de otro cambio profundo, la era de la inteligencia artificial. Es análoga a aquellos tiempos inciertos anteriores a los límites de velocidad y los cinturones de seguridad. La IA está cambiando tan rápidamente que no está claro qué ocurrirá a continuación. Nos enfrentamos a grandes cuestiones planteadas por el modo en que funciona la tecnología actual, las formas en que la gente la utilizará con malas intenciones y las formas en que la IA nos cambiará como sociedad y como individuos.

En un momento así, es natural sentirse inquieto. Pero la historia demuestra que es posible resolver los retos creados por las nuevas tecnologías.

Ya he escrito antes sobre cómo la IA va a revolucionar nuestras vidas. Ayudará a resolver problemas -en sanidad, educación, cambio climático y otros- que antes parecían insolubles. La Fundación Gates la está convirtiendo en una prioridad, y nuestro Director General, Mark Suzman, compartió recientemente cómo está pensando en su papel en la reducción de la desigualdad.

En el futuro hablaré más sobre los beneficios de la IA, pero en esta entrada quiero reconocer las preocupaciones que oigo y leo más a menudo, muchas de las cuales comparto, y explicar cómo pienso sobre ellas.

Una cosa que queda clara de todo lo que se ha escrito hasta ahora sobre los riesgos de la IA -y se ha escrito mucho- es que nadie tiene todas las respuestas. Otra cosa que tengo clara es que el futuro de la IA no es tan sombrío como algunos piensan ni tan halagüeño como otros. Los riesgos son reales, pero soy optimista y creo que se pueden gestionar. A medida que vaya analizando cada preocupación, volveré sobre algunos temas:

Muchos de los problemas causados por la IA tienen un precedente histórico. Por ejemplo, tendrá un gran impacto en la educación, pero también lo tuvieron las calculadoras de mano hace unas décadas y, más recientemente, permitir los ordenadores en las aulas. Podemos aprender de lo que ha funcionado en el pasado.

Muchos de los problemas causados por la IA también pueden gestionarse con su ayuda.
Tendremos que adaptar las leyes antiguas y adoptar otras nuevas, del mismo modo que las leyes existentes contra el fraude tuvieron que adaptarse al mundo en línea.

En este post, voy a centrarme en los riesgos que ya están presentes, o que pronto lo estarán. No voy a hablar de lo que ocurrirá cuando desarrollemos una inteligencia artificial capaz de aprender cualquier tema o tarea, a diferencia de las actuales inteligencias artificiales. Tanto si llegamos a ese punto en una década como en un siglo, la sociedad tendrá que enfrentarse a cuestiones profundas. ¿Y si una super IA establece sus propios objetivos? ¿Y si entran en conflicto con los de la humanidad? ¿Deberíamos crear una super IA?

Pero la reflexión sobre estos riesgos a largo plazo no debe ir en detrimento de los más inmediatos. Me referiré a ellos ahora.

Las falsificaciones y la desinformación generadas por la IA podrían socavar las elecciones y la democracia.
La idea de que la tecnología puede utilizarse para difundir mentiras y falsedades no es nueva. La gente lleva siglos haciéndolo con libros y folletos. Se hizo mucho más fácil con la llegada de los procesadores de texto, las impresoras láser, el correo electrónico y las redes sociales.

La IA toma este problema del texto falso y lo amplía, permitiendo prácticamente a cualquiera crear audio y vídeo falsos, conocidos como deepfakes. Si recibes un mensaje de voz que suena como tu hijo diciendo “Me han secuestrado, por favor envía 1.000 dólares a esta cuenta bancaria en los próximos 10 minutos, y no llames a la policía”, va a tener un impacto emocional horrible mucho más allá del efecto de un correo electrónico que diga lo mismo.

A mayor escala, los deepfakes generados por IA podrían utilizarse para intentar inclinar una elección. Por supuesto, no hace falta una tecnología sofisticada para sembrar la duda sobre el legítimo ganador de unas elecciones, pero la IA lo hará más fácil.

Ya existen vídeos falsos con imágenes inventadas de políticos conocidos. Imaginemos que la mañana de unas elecciones importantes se hace viral un vídeo que muestra a uno de los candidatos robando un banco. Es falso, pero los medios de comunicación y la campaña tardan varias horas en demostrarlo. ¿Cuánta gente lo verá y cambiará su voto en el último minuto? Podría inclinar la balanza, sobre todo en unas elecciones reñidas.

Cuando el cofundador de OpenAI, Sam Altman, testificó recientemente ante un comité del Senado de Estados Unidos, senadores de ambos partidos se centraron en el impacto de la IA en las elecciones y la democracia. Espero que este tema siga avanzando en la agenda de todos.

Desde luego, no hemos resuelto el problema de la desinformación y los deepfakes. Pero hay dos cosas que me hacen ser prudentemente optimista. Una es que la gente es capaz de aprender a no tomarse todo al pie de la letra. Durante años, los usuarios de correo electrónico cayeron en estafas en las que alguien se hacía pasar por un príncipe nigeriano y prometía una gran recompensa a cambio de compartir el número de la tarjeta de crédito. Pero con el tiempo, la mayoría de la gente aprendió a mirar dos veces esos correos electrónicos. A medida que las estafas se hicieron más sofisticadas, también lo hicieron muchos de sus objetivos. Tendremos que hacer lo mismo con los deepfakes.

Otra cosa que me hace albergar esperanzas es que la IA pueda ayudar a identificar las falsificaciones profundas, así como a crearlas. Intel, por ejemplo, ha desarrollado un detector de deepfakes, y la agencia gubernamental DARPA está trabajando en tecnología para identificar si se ha manipulado vídeo o audio.

Será un proceso cíclico: Alguien encuentra la forma de detectar falsificaciones, otro descubre cómo contrarrestarlas, otro desarrolla contramedidas, y así sucesivamente. No será un éxito perfecto, pero tampoco estaremos indefensos.

La IA facilita el lanzamiento de ataques contra personas y gobiernos.

Hoy en día, cuando los piratas informáticos quieren encontrar fallos explotables en el software, lo hacen por fuerza bruta, escribiendo código que golpea las debilidades potenciales hasta que descubren una manera de entrar. Para ello hay que recorrer muchos callejones sin salida, lo que requiere tiempo y paciencia.

Los expertos en seguridad que quieren contrarrestar a los piratas informáticos tienen que hacer lo mismo. Cada parche de software que instalas en tu teléfono u ordenador portátil representa muchas horas de búsqueda, por parte de personas con buenas y malas intenciones por igual.

Los modelos de IA acelerarán este proceso ayudando a los hackers a escribir un código más eficaz. También podrán utilizar información pública sobre las personas, como dónde trabajan y quiénes son sus amigos, para desarrollar ataques de phishing más avanzados que los actuales.

La buena noticia es que la IA puede utilizarse tanto para fines buenos como malos. Los equipos de seguridad de los gobiernos y del sector privado necesitan disponer de las herramientas más modernas para encontrar y corregir fallos de seguridad antes de que los delincuentes puedan aprovecharse de ellos. Espero que la industria de la seguridad del software amplíe el trabajo que ya está haciendo en este frente: debería ser una de sus principales preocupaciones.

Esta es también la razón por la que no deberíamos intentar impedir temporalmente que la gente aplique los nuevos avances en IA, como algunos han propuesto. Los ciberdelincuentes no dejarán de crear nuevas herramientas. Tampoco lo hará la gente que quiere utilizar la IA para diseñar armas nucleares y ataques bioterroristas. El esfuerzo para detenerlos debe continuar al mismo ritmo.

Existe un riesgo relacionado a nivel global: una carrera armamentística por la IA que pueda utilizarse para diseñar y lanzar ciberataques contra otros países. Todos los gobiernos quieren tener la tecnología más potente para poder disuadir los ataques de sus adversarios. Este incentivo para no dejar que nadie se adelante podría desencadenar una carrera para crear armas cibernéticas cada vez más peligrosas. Todo el mundo saldría perdiendo.

Es un pensamiento aterrador, pero tenemos la historia para guiarnos. Aunque el régimen mundial de no proliferación nuclear tiene sus fallos, ha evitado la guerra nuclear total que tanto temía mi generación cuando crecíamos. Los gobiernos deberían plantearse la creación de un organismo mundial para la IA similar al Organismo Internacional de la Energía Atómica.

La IA le quitará el trabajo a la gente.

En los próximos años, el principal impacto de la IA en el trabajo será ayudar a las personas a hacer su trabajo de forma más eficiente. Esto será así tanto si trabajan en una fábrica como en una oficina gestionando llamadas de ventas y cuentas por pagar. Con el tiempo, la IA será tan buena expresando ideas que podrá escribir tus correos electrónicos y gestionar tu bandeja de entrada por ti. Podrá escribir una solicitud en inglés sencillo, o en cualquier otro idioma, y generar una presentación enriquecida sobre su trabajo.

Como dije en mi post de febrero, es bueno para la sociedad que aumente la productividad. La gente tiene más tiempo para hacer otras cosas, en el trabajo y en casa. Y la demanda de personas que ayuden a los demás -enseñando, cuidando pacientes y asistiendo a ancianos, por ejemplo- nunca desaparecerá. Pero es cierto que algunos trabajadores necesitarán apoyo y reciclaje mientras hacemos esta transición hacia un lugar de trabajo impulsado por la IA. Esa es una función de los gobiernos y las empresas, y tendrán que gestionarla bien para que los trabajadores no se queden atrás, para evitar el tipo de interrupción en la vida de las personas que ha ocurrido durante el declive de los empleos manufactureros en Estados Unidos.

Además, hay que tener en cuenta que no es la primera vez que una nueva tecnología provoca un gran cambio en el mercado laboral. No creo que el impacto de la IA sea tan dramático como el de la Revolución Industrial, pero sin duda será tan grande como la introducción del PC. Las aplicaciones de procesamiento de textos no acabaron con el trabajo de oficina, pero lo cambiaron para siempre. Empresarios y empleados tuvieron que adaptarse, y lo hicieron. El cambio provocado por la IA será una transición llena de baches, pero hay muchas razones para pensar que podemos reducir los trastornos en la vida y el sustento de las personas.

La IA hereda nuestros prejuicios e inventa cosas.

Las alucinaciones -término que se utiliza cuando una IA afirma con seguridad algo que no es cierto- suelen producirse porque la máquina no entiende el contexto de la petición. Pídale a una IA que escriba una historia corta sobre unas vacaciones en la luna y puede que le dé una respuesta muy imaginativa. Pero pídele que te ayude a planificar un viaje a Tanzania y puede que intente enviarte a un hotel que no existe.

Otro riesgo de la inteligencia artificial es que refleje o incluso agrave los prejuicios existentes contra las personas de determinadas identidades de género, razas, etnias, etcétera.

Para entender por qué se producen las alucinaciones y los prejuicios, es importante saber cómo funcionan los modelos de IA más comunes hoy en día. En esencia, son versiones muy sofisticadas del código que permite a tu aplicación de correo electrónico predecir la siguiente palabra que vas a escribir: Escanean enormes cantidades de texto -casi todo lo que está disponible en Internet, en algunos casos- y lo analizan para encontrar patrones en el lenguaje humano.

Cuando planteas una pregunta a una IA, ésta examina las palabras que has utilizado y busca fragmentos de texto que se asocien a menudo con esas palabras. Si escribes “enumera los ingredientes de las tortitas”, se dará cuenta de que las palabras “harina, azúcar, sal, levadura en polvo, leche y huevos” aparecen a menudo con esa frase. Entonces, basándose en lo que sabe sobre el orden en que suelen aparecer esas palabras, genera una respuesta. (Los modelos de IA que funcionan de esta manera utilizan lo que se llama un transformador. GPT-4 es uno de esos modelos).

Este proceso explica por qué una IA puede experimentar alucinaciones o parecer parcial. No tiene contexto para las preguntas que le haces o las cosas que le dices. Si le dices que ha cometido un error, te dirá: “Lo siento, lo he escrito mal”. Pero es una alucinación: no ha escrito nada. Sólo lo dice porque ha escaneado suficiente texto como para saber que “Lo siento, he escrito mal” es una frase que la gente suele escribir después de que alguien le corrija.

Del mismo modo, los modelos de inteligencia artificial heredan los prejuicios del texto con el que han sido entrenados. Si se lee mucho sobre, por ejemplo, médicos, y el texto menciona sobre todo a médicos varones, sus respuestas asumirán que la mayoría de los médicos son hombres.

Aunque algunos investigadores creen que las alucinaciones son un problema inherente, yo no estoy de acuerdo. Soy optimista y creo que, con el tiempo, se podrá enseñar a los modelos de IA a distinguir la realidad de la ficción. OpenAI, por ejemplo, está haciendo un trabajo prometedor en este frente.

Otras organizaciones, como el Instituto Alan Turing y el Instituto Nacional de Estándares y Tecnología, están trabajando en el problema de la parcialidad. Uno de los enfoques consiste en incorporar valores humanos y razonamientos de alto nivel a la IA. Es análogo al funcionamiento de un ser humano consciente de sí mismo: Tal vez dé por sentado que la mayoría de los médicos son hombres, pero es lo bastante consciente de ello como para saber que tiene que combatirlo intencionadamente. La inteligencia artificial puede funcionar de forma parecida, sobre todo si los modelos los diseñan personas de distintas procedencias.

Por último, todo el que utilice IA debe ser consciente del problema de los prejuicios y convertirse en un usuario informado. La redacción que le pidas a una IA puede estar tan plagada de prejuicios como de errores factuales. Tendrás que comprobar tanto los prejuicios de tu IA como los tuyos propios.

Los alumnos no aprenderán a escribir porque la IA hará el trabajo por ellos.

A muchos profesores les preocupan las formas en que la IA socavará su trabajo con los alumnos. En una época en la que cualquiera con acceso a Internet puede utilizar la IA para escribir un primer borrador respetable de una redacción, ¿qué impide que los alumnos lo entreguen como su propio trabajo?

Ya existen herramientas de IA que aprenden a distinguir si algo ha sido escrito por una persona o por un ordenador, de modo que los profesores pueden saber cuándo sus alumnos no están haciendo su propio trabajo. Pero algunos profesores no intentan impedir que sus alumnos utilicen la IA en sus escritos, sino que la fomentan.

En enero, una veterana profesora de inglés llamada Cherie Shields escribió un artículo en Education Week sobre cómo utiliza ChatGPT en su clase. Ha ayudado a sus alumnos en todo, desde empezar una redacción hasta escribir esquemas e incluso darles feedback sobre su trabajo.

“Los profesores tendrán que aceptar la tecnología de IA como una herramienta más a la que tienen acceso los alumnos”, escribió. “Al igual que antes enseñábamos a los alumnos a hacer una búsqueda correcta en Google, los profesores deberían diseñar lecciones claras sobre cómo el bot ChatGPT puede ayudar en la redacción de ensayos”. Reconocer la existencia de la IA y ayudar a los estudiantes a trabajar con ella podría revolucionar nuestra forma de enseñar.” No todos los profesores tienen tiempo para aprender y utilizar una nueva herramienta, pero educadores como Cherie Shields defienden que los que lo hagan se beneficiarán mucho.

Me recuerda a la época en que se generalizaron las calculadoras electrónicas en los años setenta y ochenta. A algunos profesores de matemáticas les preocupaba que los alumnos dejaran de aprender aritmética básica, pero otros adoptaron la nueva tecnología y se centraron en las habilidades de pensamiento que hay detrás de la aritmética.

Hay otra forma en que la IA puede ayudar con la escritura y el pensamiento crítico. Especialmente en estos primeros días, cuando las alucinaciones y los prejuicios siguen siendo un problema, los educadores pueden hacer que la IA genere artículos y luego trabajar con sus alumnos para comprobar los hechos. Organizaciones educativas sin ánimo de lucro como Khan Academy y OER Project, que yo financio, ofrecen a profesores y alumnos herramientas en línea gratuitas que hacen especial hincapié en la comprobación de las afirmaciones. Pocas habilidades son más importantes que saber distinguir lo que es verdad de lo que es mentira.

Tenemos que asegurarnos de que el software educativo ayude a cerrar la brecha de rendimiento, en lugar de empeorarla. El software actual está orientado sobre todo a potenciar a los estudiantes que ya están motivados. Puede desarrollar un plan de estudio para ti, indicarte buenos recursos y evaluar tus conocimientos. Pero aún no sabe cómo atraerte hacia una asignatura que no te interesa. Ese es un problema que los desarrolladores tendrán que resolver para que estudiantes de todo tipo puedan beneficiarse de la IA.

¿Cuál será el futuro?

Creo que hay más razones que de sobra para ser optimistas y pensar que podemos gestionar los riesgos de la IA al tiempo que maximizamos sus beneficios. Pero tenemos que movernos rápido.

Los gobiernos tienen que acumular experiencia en inteligencia artificial para poder elaborar leyes y reglamentos informados que respondan a esta nueva tecnología. Tendrán que lidiar con la desinformación y las falsificaciones, las amenazas a la seguridad, los cambios en el mercado laboral y el impacto en la educación. Por citar sólo un ejemplo: La ley tiene que ser clara sobre qué usos de las falsificaciones son legales y sobre cómo deben etiquetarse para que todo el mundo entienda cuándo algo que está viendo u oyendo no es auténtico.

Los líderes políticos tendrán que estar preparados para mantener un diálogo informado y reflexivo con sus electores. También tendrán que decidir en qué medida colaboran con otros países en estas cuestiones y en qué medida lo hacen solos.

En el sector privado, las empresas de inteligencia artificial deben trabajar de forma segura y responsable. Esto incluye proteger la privacidad de las personas, asegurarse de que sus modelos de IA reflejan los valores humanos básicos, minimizar los prejuicios, extender los beneficios al mayor número de personas posible y evitar que la tecnología sea utilizada por delincuentes o terroristas. Las empresas de muchos sectores de la economía tendrán que ayudar a sus empleados a hacer la transición a un lugar de trabajo centrado en la IA para que nadie se quede atrás. Y los clientes deben saber siempre cuándo están interactuando con una IA y no con un humano.

Por último, animo a todos a seguir la evolución de la IA en la medida de lo posible. Es la innovación más transformadora que veremos en nuestras vidas, y un debate público sano dependerá de que todo el mundo conozca la tecnología, sus ventajas y sus riesgos. Los beneficios serán enormes, y la mejor razón para creer que podemos gestionar los riesgos es que ya lo hemos hecho antes.