Al advertir sobre un “mundo oscuro de daños en línea” que debe abordarse, el Foro Económico Mundial (WEF, por sus siglas en inglés) publicó este mes un artículo que pedía una “solución” al “abuso en línea” que sería impulsado por inteligencia artificial (IA).
La propuesta exige un sistema, basado en IA, que automatizaría la censura de la “desinformación” y el “discurso de odio” y trabajaría para superar la propagación del “abuso infantil, el extremismo, la desinformación, el discurso de odio y el fraude” en línea.
Según el autor del artículo, Inbal Goldberger, los “equipos de confianza y seguridad” humanos por sí solos no son totalmente capaces de vigilar dicho contenido en línea.
Goldberger es vicepresidente de ActiveFence Trust & Safety, una empresa de tecnología con sede en la ciudad de Nueva York y Tel Aviv que afirma que “recopila automáticamente datos de millones de fuentes y aplica IA contextual para impulsar operaciones de confianza y seguridad de cualquier tamaño”.
En lugar de depender únicamente de equipos de moderación humanos, Goldberger propone un sistema basado en “inteligencia fuera de la plataforma, multilingüe y curada por humanos”, en otras palabras, información proporcionada por fuentes humanas “expertas” que luego crearían “conjuntos de aprendizaje”. eso entrenaría a la IA para reconocer contenido supuestamente dañino o peligroso.
Esta “inteligencia fuera de la plataforma”, más aprendizaje automático que IA per se, según Didi Rankovic de ReclaimTheNet.org, se recopilaría de “millones de fuentes” y luego se recopilaría y fusionaría antes de usarse para “decisiones de eliminación de contenido” por parte de “Plataformas de Internet”.
Según Goldberger, el sistema complementaría la “detección automatizada más inteligente con experiencia humana” y permitirá la creación de “IA con inteligencia humana integrada”.
Esto, a su vez, brindaría protección contra “actores cada vez más avanzados que hacen un mal uso de las plataformas de maneras únicas”.
“Un moderador humano que es un experto en la supremacía blanca europea no necesariamente podrá reconocer el contenido dañino en la India o las narrativas de desinformación en Kenia”, explicó Goldberger.
Sin embargo, “Al combinar de manera única el poder de la tecnología innovadora, la recopilación de inteligencia fuera de la plataforma y la destreza de los expertos en la materia que entienden cómo operan los actores de amenazas, la detección escalada del abuso en línea puede alcanzar una precisión casi perfecta”, ya que estos conjuntos de aprendizaje son “incorporado” a la IA con el tiempo, dijo Goldberger.
Esto, a su vez, permitiría a los “equipos de confianza y seguridad detener las amenazas en línea antes de que lleguen a los usuarios”, agregó.
En su análisis de cómo se vería la propuesta de Goldberger en la práctica, el bloguero Igor Chudov explicó cómo la vigilancia del contenido en las redes sociales hoy en día ocurre plataforma por plataforma.
Por ejemplo, los moderadores de contenido de Twitter solo miran el contenido publicado en esa plataforma en particular, pero no el contenido de un usuario publicado fuera de Twitter.
Chudov argumentó que esta es la razón por la que el Foro Económico Mundial parece apoyar una propuesta para “ir más allá de las principales plataformas de Internet, para recopilar información sobre personas e ideas en cualquier otro lugar”.
“Tal enfoque”, escribió Chudov, “les permitiría saber mejor qué persona o idea censurar, en todas las plataformas principales a la vez”.
La “inteligencia” recopilada por el sistema de sus “millones de fuentes”, según Chudov, “detectaría pensamientos que no les gustan”, lo que daría como resultado “decisiones de eliminación de contenido dictadas por Twitter, Facebook, etc., un cambio importante del status quo de cada plataforma que decide qué hacer en función de los mensajes publicados solo en esa plataforma específica”.
De esta forma, “la búsqueda del pensamiento erróneo se globaliza”, concluye Chudov.
En respuesta a la propuesta del Foro Económico Mundial, ReclaimTheNet.org señaló que “uno puede comenzar a discernir el argumento aquí… como simplemente presionar a las redes sociales para que comiencen a avanzar hacia la ‘censura preventiva’”.
Chudov postuló que el WEF está promoviendo la propuesta porque “se está preocupando un poco” ya que “las opiniones no aprobadas se están volviendo más populares y los censores en línea no pueden seguir el ritmo de millones de personas que se vuelven más conscientes y más vocales”.
Según el Daily Caller, “El documento WEF no especificó cómo se decidirían los miembros del equipo de capacitación de IA, cómo serían responsables o si los países podrían ejercer controles sobre la IA”.
En un descargo de responsabilidad que acompaña al artículo de Goldberger, el WEF aseguró al público que el contenido expresado en el artículo “es la opinión del autor, no del Foro Económico Mundial”, y agregó que “este artículo ha sido compartido en sitios web que habitualmente tergiversan el contenido y difunden desinformación.”
Sin embargo, el WEF parece estar abierto a propuestas como la de Goldberger. Por ejemplo, un artículo de mayo de 2022 en el sitio web de WEF propone la “Junta de supervisión” de Facebook como ejemplo de un “modelo de gobernanza del mundo real” que se puede aplicar a la gobernanza en el metaverso.
Y, como señaló Chudov, “la moderación de contenido de IA se ubica directamente en el sistema de puntaje de crédito social de IA”.
La ONU, respaldada por la Fundación Gates, también tiene como objetivo “romper la cadena de desinformación”
El WEF no es la única entidad que pide una vigilancia más estricta del contenido en línea y la “desinformación”.
Por ejemplo, la UNESCO anunció recientemente una asociación con Twitter, la Comisión Europea y el Congreso Judío Mundial que condujo al lanzamiento de la campaña #ThinkBeforeSharing, para “detener la propagación de teorías de conspiración”.
Según la UNESCO:
“La pandemia de COVID-19 ha provocado un aumento preocupante de la desinformación y las teorías de conspiración”.
“Las teorías de la conspiración pueden ser peligrosas: a menudo se dirigen a grupos vulnerables y los discriminan, ignoran la evidencia científica y polarizan a la sociedad con graves consecuencias. Esto tiene que parar”.
La directora general de la UNESCO, Audrey Azoulay, dijo:
“Las teorías de la conspiración causan un daño real a las personas, a su salud y también a su seguridad física. Amplifican y legitiman los conceptos erróneos sobre la pandemia y refuerzan los estereotipos que pueden alimentar la violencia y las ideologías extremistas violentas”.
La UNESCO dijo que la asociación con Twitter informa a las personas que los eventos que ocurren en todo el mundo no son “manipulados en secreto detrás de escena por fuerzas poderosas con intenciones negativas”.
La UNESCO emitió una guía sobre qué hacer en caso de que uno se encuentre con un “teórico de la conspiración” en línea: uno debe “reaccionar” de inmediato publicando un enlace relevante a un “sitio web de verificación de hechos” en los comentarios.
La UNESCO también brinda asesoramiento al público en caso de que alguien se encuentre con un “teórico de la conspiración” en persona. En ese caso, el individuo debe evitar discutir, ya que “cualquier argumento puede tomarse como prueba de que usted es parte de la conspiración y reforzar esa creencia”.
La campaña #ThinkBeforeSharing proporciona una gran cantidad de infografías y materiales complementarios destinados a explicar qué son las “teorías de conspiración”, cómo identificarlas, cómo informar sobre ellas y cómo reaccionar ante ellas de manera más amplia.
Según estos materiales, las teorías de la conspiración tienen seis cosas en común, que incluyen:
- Un “supuesto complot secreto”.
- Un “grupo de conspiradores”.
- “‘Evidencia’ que parece apoyar la teoría de la conspiración”.
- Sugerencias que afirman “falsamente” que “nada sucede por accidente y que no hay coincidencias”, y que “nada es lo que parece y todo está conectado”.
- Dividen el mundo en “bueno o malo”.
- Sirven de chivos expiatorios a personas y grupos.
La UNESCO no descarta por completo la existencia de “teorías de conspiración”, sino que admite que “existen conspiraciones reales, grandes y pequeñas”.
Sin embargo, afirma la organización, tales “conspiraciones” se “centran más a menudo en eventos individuales independientes, o en un individuo como un asesinato o un golpe de estado” y son “reales” solo si “los medios de comunicación los descubren”.
Además del WEF y la UNESCO, el Consejo de Derechos Humanos de las Naciones Unidas (ONU) a principios de este año adoptó “un plan de acción para abordar la desinformación”.
El “plan de acción”, patrocinado por EE. UU., Reino Unido, Ucrania, Japón, Letonia, Lituania y Polonia, enfatiza “el papel principal que tienen los gobiernos para contrarrestar las narrativas falsas”, al tiempo que expresa preocupación por:
“El impacto negativo cada vez mayor y de gran alcance en el disfrute y la realización de los derechos humanos de la creación y difusión deliberadas de información falsa o manipulada con la intención de engañar y engañar a las audiencias, ya sea para causar daño o para obtener ganancias personales, políticas o financieras”.
Incluso los países que no respaldaron oficialmente el plan del Consejo de Derechos Humanos expresaron su preocupación por la “desinformación” en línea.
Por ejemplo, China identificó esa “desinformación” como “un enemigo común de la comunidad internacional”.
Una iniciativa anterior de la ONU, en asociación con el Foro Económico Mundial, “reclutó a 110,000 voluntarios de información” que, en palabras de la directora de comunicaciones globales de la ONU, Melissa Fleming, actuarían como “primeros respondedores digitales” a la “desinformación en línea”.
La iniciativa #PledgeToPause de la ONU, aunque circuló recientemente como un nuevo desarrollo en las redes sociales, se anunció en noviembre de 2020 y la ONU la describió como “la primera campaña mundial de cambio de comportamiento sobre la desinformación”.
La campaña es parte de una iniciativa más amplia de la ONU, ” Verificado “, que tiene como objetivo reclutar participantes para difundir “contenido verificado optimizado para compartir en redes sociales”, derivado directamente del departamento de comunicaciones de la ONU.
Fleming dijo en ese momento que la ONU también estaba “trabajando con plataformas de redes sociales para recomendar cambios” para “ayudar a romper la cadena de desinformación”.
Tanto ” Verificado ” como la campaña #PledgeToPause todavía parecen estar activas en el momento de escribir este artículo.
La iniciativa “Verified” se opera en conjunto con Purpose , un grupo activista que ha colaborado con la Fundación Bill & Melinda Gates, la Fundación Rockefeller, Bloomberg Philanthropies, la Organización Mundial de la Salud, la Iniciativa Chan Zuckerberg, Google y Starbucks.
Desde 2019, la ONU ha estado en una asociación estratégica con el WEF basada en seis “áreas de enfoque”, una de las cuales es la “cooperación digital”.
*Si te gusta esta información y te ha sido de utilidad, ayúdanos a difundirla para que más personas tengan la oportunidad de conocerla
Y recuerda… “No asumas NADA, cuestiona TODO”.
Redacción Anwo.life