El aprendiz de brujo de Goethe es un ejemplo clásico de muchas historias en un tema similar. El joven aprendiz encanta una escoba para trapear el piso, evitando algo de trabajo en el proceso. Pero el encantamiento rápidamente se descontrola: la escoba, enfocada de manera monomaníaca en su tarea pero inconsciente de las consecuencias, termina inundando la habitación.
El miedo clásico que rodea a la IA hipotética y superinteligente es que podríamos darle el objetivo equivocado o limitaciones insuficientes. Incluso en el campo bien desarrollado de la inteligencia artificial limitada, vemos que los algoritmos de aprendizaje automático son muy capaces de encontrar medios inesperados y formas no deseadas de lograr sus objetivos. Por ejemplo, en el entorno estructurado de los videojuegos, donde se maximiza una función simple: los puntos anotados, a menudo encuentran nuevas hazañas o trampas para ganar sin jugar.
De alguna manera, el algoritmo de YouTube es una bestia inmensamente complicada: sirve miles de millones de recomendaciones al día. Pero sus objetivos, al menos originalmente, eran bastante simples: maximizar la probabilidad de que el usuario haga clic en un video y el tiempo que pasan en YouTube. Ha sido increíblemente exitoso: el 70 por ciento del tiempo que se pasa en YouTube viendo videos recomendados, que suman 700 millones de horas al día. Todos los días, la humanidad como colectivo pasa mil vidas mirando los videos recomendados de YouTube.
El diseño de este algoritmo, por supuesto, está impulsado por la empresa matriz de YouTube, Alphabet, maximizando su propio objetivo: los ingresos publicitarios y, por lo tanto, la rentabilidad de la empresa. Prácticamente todo lo demás que sucede es un efecto secundario. Las redes neuronales del algoritmo de YouTube forman conexiones (ponderaciones estadísticas que favorecen algunas rutas sobre otras) en función de la cantidad colosal de datos que todos generamos al usar el sitio. Puede parecer una forma inocua o incluso sensata de determinar lo que la gente quiere ver; pero sin supervisión, las consecuencias no deseadas pueden ser desagradables.
Guillaume Chaslot, un ex ingeniero de YouTube, ha ayudado a exponer algunos de estos . En declaraciones a TheNextWeb , señaló: “El problema es que la IA no está diseñada para ayudarlo a obtener lo que desea, sino para volverse adicto a YouTube”. Las recomendaciones fueron diseñadas para perder el tiempo “.
Más que esto: pueden desperdiciar su tiempo de manera nociva. El contenido inflamatorio y conspirador genera clics y compromiso. Si un pequeño subconjunto de usuarios observa horas y horas de contenido político o de teoría de la conspiración, se refuerzan las vías en la red neuronal que recomiendan este contenido.
El resultado es que los usuarios pueden comenzar con búsquedas inocuas de contenido relativamente leve y verse arrastrados rápidamente hacia material extremista o conspirador. Una encuesta de 30 asistentes a una conferencia de La Tierra Planamostró que todos menos uno originalmente se encontraron con la conspiración de la Tierra Plana a través de YouTube, con el único disidente expuesto a las ideas de miembros de la familia que a su vez fueron convertidos por YouTube.
Muchos lectores (y este escritor) conocen la experiencia de ser absorbidos por un “agujero de gusano” de videos y contenido relacionado al navegar por las redes sociales. Pero estos agujeros de gusano pueden ser extremadamente oscuros. Recientemente, una “ agujero de gusano ” en YouTube fue descubierto , una red recomendación de videos de niños, que era frecuentado por aquellos que querían explotar a los niños. En la investigación de TechCrunch , solo se necesitaron unos pocos clics de recomendación de una búsqueda (algo obscena) de adultos en bikini para llegar a este contenido explotador.
Es simple, realmente: en lo que respecta al algoritmo, con su único objetivo, un usuario que mira un video real e informativo sobre astronomía y luego continúa con su día es menos ventajoso que un usuario que ve quince conspiraciones de tierra plana. videos en una fila.
De alguna manera, nada de esto es particularmente nuevo. El algoritmo está aprendiendo a explotar fallas familiares en la psique humana para lograr sus fines, al igual que otros algoritmos encuentran fallas en el código de los juegos de Atari de los 80 para anotar sus propios puntos. El contenido del periódico sensacionalista conspirador se reemplaza con videos clickbait sobre temas similares. Nuestros cortos períodos de atención son explotados por algoritmos de redes sociales, en lugar de publicidad en televisión. Filtrar burbujas de opinión que alguna vez consistieron en pasar tiempo con personas con las que estuvo de acuerdo y leer periódicos que reflejaban su propia opinión, ahora están reforzados por algoritmos.
Cualquier plataforma que alcance el tamaño de los gigantes de las redes sociales está destinada a ser explotada por personas con objetivos explotadores, destructivos o irresponsables. Es igualmente difícil ver cómo pueden operar a esta escala sin depender en gran medida de algoritmos; Incluso la moderación de contenido, que está parcialmente automatizada, puede afectar enormemente a los moderadores humanos, necesarios para filtrar el peor contenido imaginable . Sin embargo, dirigir cómo la raza humana pasa mil millones de horas al día, a menudo dando forma a las creencias de las personas de maneras inesperadas, es evidentemente una fuente de gran poder.
La respuesta dada por las empresas de medios sociales tiende a ser la misma: mejor IA. Estos algoritmos no necesitan ser instrumentos contundentes. Los ajustes son posibles. Por ejemplo, una versión anterior del algoritmo de YouTube siempre recomendaba contenido “obsoleto”, simplemente porque tenía más historial de visualización para aprender. Los desarrolladores arreglaron esto al incluir la edad del video como una variable.
Del mismo modo, la elección de cambiar el enfoque de la probabilidad de clics al tiempo dedicado a mirar el video tenía como objetivo evitar que se recomendaran videos de baja calidad con títulos de clickbait, lo que llevó a la insatisfacción del usuario con la plataforma. Las actualizaciones recientes tienen como objetivo priorizar las noticias de fuentes confiables y autorizadas , y hacer que el algoritmo sea más transparente al explicar por qué se hicieron recomendaciones . Otros posibles ajustes podrían agregar más énfasis a si a los usuarios les gustan los videos, como una indicación de calidad. Y los videos de YouTube sobre temas propensos a la conspiración, como el calentamiento global, ahora incluyen enlaces a fuentes de información objetivas.
Sin embargo, el problema seguramente surgirá si esto entra en conflicto con la rentabilidad de la empresa en gran medida. Tome un ajuste reciente al algoritmo, con el objetivo de reducir el sesgo en las recomendaciones basadas en el orden en que se recomiendan los videos. Esencialmente, si tiene que desplazarse más hacia abajo antes de hacer clic en un video en particular, YouTube agrega más peso a esa decisión: el usuario probablemente esté buscando activamente contenido que esté más relacionado con su objetivo. Una buena idea, y una que mejora la participación del usuario en un 0.24 por ciento, lo que se traduce en millones de dólares en ingresos para YouTube.
Si el contenido adictivo y los agujeros de gusano de participación son lo que es rentable, ¿cambiará el algoritmo el peso de sus recomendaciones en consecuencia? ¿Qué pesos se aplicarán a la ética, la moral y las consecuencias no deseadas al tomar estas decisiones?
Aquí está la tensión fundamental involucrada al tratar de implementar estos algoritmos a gran escala de manera responsable. Las empresas tecnológicas pueden modificar sus algoritmos, y los periodistas pueden probar su comportamiento y exponer algunas de estas consecuencias no deseadas. Pero así como los algoritmos deben volverse más complejos y evitar priorizar una sola métrica sin tener en cuenta las consecuencias, las empresas deben hacer lo mismo.
Crédito de la imagen: Wikimedia Commons