En la ciudad de Denver, Colorado, se realizó a principios de mayo un nuevo Red Hat Summit, un evento de dos días donde cinco mil personas fueron a conocer de primera mano las novedades en torno a la innovación y el negocio de la inteligencia artificial, la evolución del código abierto y el futuro de la industria cloud (nube).
Algoritmos de las redes sociales, ¿ son cada vez más peligrosos ?
Stuart Russell, profesor de la Universidad de California en Berkeley, se ha dedicado al estudio de la ingeniería artificial (IA) durante décadas. Pero también es uno de sus críticos más conocidos, al menos del modelo de IA al que todavía ve como "estándar" en el mundo. Rusell ha advertido que el modelo predominante de IA es, en su opinión, una amenaza para la supervivencia de los seres humanos.
Mundo - Tecnología13/10/2021 RedacciónPero, a diferencia de las tramas de películas de Hollywood sobre el tema, no se trata de que estas tecnologías se vuelvan conscientes y se vuelvan contra nosotros.
La principal preocupación de Russell es la forma cómo sus desarrolladores humanos han programado esta inteligencia: tienen la tarea de optimizar sus tareas tanto como sea posible, básicamente a cualquier costo.
Y así se vuelven "ciegos" e indiferentes a los problemas (o, en última instancia, a la destrucción) que pueden causar a los humanos.
El genio salió de la botella
Para explicarle esto a BBC News Brasil, Russell utiliza la metáfora de un genio de una lámpara que cumple los deseos de su maestro.
"Le pides al genio que te convierta en la persona más rica del mundo, y así sucede, pero solo porque el genio hizo que el resto de las personas desaparecieran", dice.
"(En IA) construimos máquinas con lo que yo llamo los modelos estándar: ellas reciben objetivos que tienen que lograr u optimizar, para los cuales encuentran la mejor solución posible. Y luego llevan a cabo esa acción".
Incluso si esta acción es, en la práctica, perjudicial para los humanos, argumenta.
"Si construimos la IA para optimizar un objetivo fijo dado por nosotros, ellas (las máquinas) serán como psicópatas, persiguiendo ese objetivo y siendo completamente ajenas a todo lo demás, incluso si les pedimos que se detengan".
Un ejemplo cotidiano de esto, dice Russell, son los algoritmos que rigen a las redes sociales, que se han vuelto tan evidentes en los últimos días con el colapso global que afectó a Facebook, Instagram y WhatsApp durante unas seis horas.
La tarea principal de estos algoritmos es mejorar la experiencia del usuario en las redes sociales. Como, por ejemplo, recopilando la mayor información posible sobre ese usuario y proporcionándole contenido que se adapte a sus preferencias para que permanezcan conectados por más tiempo. Incluso si esto se produce a expensas del bienestar del usuario o la ciudadanía global, continúa el investigador.
"Las redes sociales crean adicción, depresión, disfunción social, tal vez extremismo, polarización de la sociedad y, tal vez contribuyen a difundir desinformación", señala Russell.
"Y está claro que sus algoritmos están diseñados para optimizar un objetivo: que las personas hagan clic, que pasen más tiempo enganchadas con el contenido", continúa. "Y, al optimizar estas cantidades, podemos estar causando enormes problemas a la sociedad".
No obstante, prosigue Russel, esos algoritmos no se someten a un escrutinio lo suficiente como para ser verificados o "arreglados", por lo que siguen trabajando para optimizar su objetivo, indistintamente del daño colateral.
"(Las redes sociales) no solo están optimizando lo incorrecto, sino que también están manipulando a las personas, porque al manipularlas consigue aumentar su compromiso. Y si puedo hacerte más predecible, por ejemplo, transformándote en un ecoterrorista extremo, puedo enviarte contenido ecoterrorista y asegurarme de que hagas clic para optimizar mis clics".
Estas críticas fueron reforzadas la semana pasada por la ex trabajadora de Facebook (y actual informante) Frances Haugen, quien testificó ante una audiencia del Congreso de Estados Unidos.
Haugen dijo que las redes sociales "dañan a los niños, provocan divisiones y socavan la democracia".
IA con "valores humanos"
Russell, a su vez, explicará sus teorías a una audiencia de investigadores brasileros el próximo 13 de octubre durante una conferencia de la Academia Brasileña de Ciencias de forma virtual.
El investigador, autor de "Compatibilidad Humana: Inteligencia artificial y el problema del control", es considerado pionero en el campo al que él llama "inteligencia artificial compatible con la existencia humana".
"Precisamos de un tipo completamente diferente al sistema de IA", opina Russell. Este tipo de IA, prosigue, tendría que "saber" que tiene limitaciones, que no puede cumplir sus objetivos a ningún costo y que, incluso siendo una máquina, puede estar errada.
"Haría que esta inteligencia se comportase de un modo completamente diferente, más cautelosa (…), que va a pedir permiso antes de hacer algo cuando no tiene certeza de si es lo que queremos. Y, en un caso más extremo, que querría ser apagada para no hacer algo que nos va a perjudicar. Ese es mi mensaje principal".
La teoría defendida por Russell no forma parte de un consenso: hay quienes no consideran amenazante ese modelo vigente de IA. Un ejemplo famoso de los dos lados de este debate ocurrió algunos años atrás, en una discusión pública entre los empresarios de tecnología Mark Zuckerberg y Elon Musk.
Un reportaje de The New York Times señala que, en una cena ocurrida en 2014, los dos empresarios debatieron entre sí.
Musk apuntó que el "realmente creía en el peligro" de la IA de volverse superior y subyugar a los humanos.
Zuckerberg, sin embargo, opinó que Musk estaba siendo alarmista.
En una entrevista de ese mismo año, el creador de Facebook se consideraba un "optimista" en cuando a IA y afirmó que los críticos, como Musk, "estaban creando escenarios apocalípticos e irresponsables".
"Siempre que escucho a gente diciendo que la IA va a perjudicar a las personas en el futuro, pienso que la tecnología generalmente puede ser usada para el bien o para el mal, y debes tener cuidado en cómo la construyes y en cómo va a ser usada. Pero encuentro cuestionable defender la ralentización del proceso de IA. No consigo entender eso".
Musk ha argumentado que la IA es "potencialmente más peligrosa que las ojivas nucleares".
Un lento e invisible desastre nuclear.
Stuart Russell se suma a la preocupación de Musk y también traza paralelos con los peligros de la carrera nuclear.
"Creo que muchos (especialistas en tecnología) consideran este argumento (los peligros de la IA) amenazante porque básicamente dice que 'la disciplina en la que hemos estado durante varias décadas es potencialmente un riesgo'. Algunas personas ven eso como lo contrario a la IA", sustenta Russell.
"Mark Zuckerberg cree que los comentarios de Elon Musk son anti IA, pero eso me suena ridículo. Es como decir que la advertencia de que una bomba nuclear podría explotar es un argumento anti físico. No es anti físico, es un complemento de la física, por haber creado una tecnología tan poderosa que puede destruir el mundo".
"De hecho, tuvimos (los accidentes nucleares) de Chernóbil y Fukushima, y la industria fue diezmada porque no prestó atención suficiente a los riesgos. Entonces, si quieres obtener beneficios de la IA, tiene que prestar atención a los riesgos".
La actual falta de control sobre los algoritmos de las redes sociales, argumenta Russell, puede causar "enormes problemas para la sociedad" a escala global. Pero, a diferencia de un desastre nuclear, este es "lento y de modo casi invisible".
¿Cómo revertir entonces este curso?
Para Russell, puede ser necesario un rediseño completo de los algoritmos de las redes sociales. Pero, primero, es necesario conocerlos a fondo, opina.
Russell señala que en Facebook, por ejemplo, ni siquiera en el consejo independiente encargado de supervisar a la red social tiene acceso pleno al algoritmo que hace curaduría del contenido visto por los usuarios.
"Pero hay un gran grupo de investigadores y un gran proyecto en marcha en la Global Partnership en AI (GPAI según sus siglas en inglés), trabajando con una gran red social, que no puedo identificar, para obtener acceso a datos y hacer experimentos", dice Russell.
"Lo principal es hacer experimentos con grupos de control, ver con las personas qué está causando la polarización social y depresión y (ver) si al cambiar el algoritmo mejora eso".
"No le estoy diciendo a las personas que dejen de usar las redes sociales o que son inherentemente malvadas", prosigue Russell.
"(El problema) es la forma cómo los algoritmos funcionan, el uso de likes, de subir contenido (con base en las preferencias) o su eliminación. El modo en cómo el algoritmo escoge qué colocar en la pantalla parece basarse en métricas que son perjudiciales para las personas".
"Por lo tanto, debemos poner el beneficio del usuario como objetivo principal y eso va a hacer que las cosas funcionen mejor y que la gente este feliz de usar sus sistemas", sentencia.
No habrá una respuesta única sobre qué es "beneficioso". Por lo tanto, argumenta el investigador, los algoritmos tendrán que adaptar ese concepto para cada usuario individualmente, una tarea que, el propio Russell admite, no es nada fácil.
"De hecho, esta (área de las redes sociales) será una de las más difíciles donde se pondrá en práctica este nuevo modelo de IA", afirma.
"Creo realmente tenemos que empezar todo desde cero. Es posible que acabemos entendiendo la diferencia entre manipulación aceptable e inaceptable".
Continua Russell: "Por ejemplo, en el sistema educativo, manipulamos a los niños para volverlos ciudadanos conocedores, capaces, exitosos y bien integrados. Y consideramos eso aceptable".
"Pero si ese mismo proceso volviese a los niños terroristas, sería una manipulación inaceptable. ¿Cómo exactamente diferencias entre ambos? Es una cuestión muy difícil. Las redes sociales suscitan estos cuestionamientos bastante difíciles que hasta los filósofos tienen dificultades en responder", dice el investigador.
Un error de Google casi le cuesta u$s125.000 millones al fondo de inversión UniSuper
El error de Google con la empresa australiana afectó a medio millón de usuarios, pero finalmente pudo ser solucionado, según informó The Guardian.
El futuro llegó también en lo audiovisual, un programa de IA crea videos con sólo texto o imágenes
Se trata de Sora, la nueva creación de la empresa estadounidense OpenAI. Puede generar vídeos e imágenes de diversas duraciones, relaciones de aspecto y resoluciones, hasta un minuto completo.
La billetera virtual de Google ya se puede usar en la Argentina
La nueva app disponible para dispositivos Android permite hacer pagos sin contacto (con tecnología NFC) en tiendas físicas, sitios web y aplicaciones, con foco en la seguridad. No cobra comisiones a usuarios, comercios ni emisores por cada transacción.
La joven cantante y el futbolista de la Selección Argentina estarían iniciando un romance.
Cuántos años se llevan Nicki Nicole y Enzo Fernández
Franco Colapinto terminó 17° y 18° en las primeras dos prácticas libres en el circuito callejero de Las Vegas
El piloto argentino probó neumáticos intermedios y blandos en el circuito callejero de La Vegas pensando en la clasificación y la carrera. Hamilton lideró ambas pruebas.
El jefe de Gabinete definió al influencer libertario como “un militante de las ideas liberales” y destacó su capacidad para expresarse.
De Jesús lanza un plan de preservación del frente marítimo en el Municipio de la Costa
El municipio bajo la dirección del Intendente Juan De Jesús, presentó un plan de preservación y restauración del frente marítimo, con un enfoque en la sostenibilidad y el uso de técnicas innovadoras.
La nueva película navideña de Netflix que ya está enamorando a los suscriptores
La plataforma continúa con sus lanzamientos para las fiestas de fin de año. De qué trata el último título que estrenó.