Eric Schmidt tiene un plan de seis puntos para luchar contra la desinformación electoral



https://www.technologyreview.com/

El año que viene también traerá un cambio de paradigma para las plataformas de redes sociales. El papel de Facebook y otros ha condicionado nuestra comprensión de las redes sociales como “plazas públicas” globales y centralizadas con un flujo interminable de contenido y retroalimentación sin fricciones. Sin embargo, el caos en X (también conocido como Twitter) y el uso cada vez menor de Facebook entre la generación Z (junto con el ascenso de aplicaciones como TikTok y Discord) indican que el futuro de las redes sociales puede verse muy diferente. En busca de crecimiento, las plataformas han adoptado la amplificación de las emociones a través de algoritmos impulsados ​​por la atención y feeds impulsados ​​por recomendaciones. 

Pero eso les ha quitado capacidad de acción a los usuarios (no controlamos lo que vemos) y, en cambio, nos ha dejado con conversaciones llenas de odio y discordia, así como una creciente epidemia de problemas de salud mental entre los adolescentes. Esto está muy lejos de la conversación global, democratizada y de un solo mundo con la que soñaron los idealistas hace 15 años. Con muchos usuarios a la deriva y perdiendo la fe en estas plataformas, está claro que maximizar los ingresos, irónicamente, ha perjudicado los intereses comerciales.

Ahora que la IA está empezando a hacer que las redes sociales sean mucho más tóxicas , las plataformas y los reguladores deben actuar rápidamente para recuperar la confianza de los usuarios y salvaguardar nuestra democracia. Aquí propongo seis enfoques técnicos que las plataformas deberían redoblar para proteger a sus usuarios. Las regulaciones y leyes desempeñarán un papel crucial a la hora de incentivar o exigir muchas de estas acciones. Y si bien estas reformas no resolverán todos los problemas de información errónea y desinformación, pueden ayudar a frenar la marea antes de las elecciones del próximo año. 

1.     Verificar usuarios humanos. Necesitamos distinguir a los humanos que usan las redes sociales de los robots, responsabilizando a ambos si se violan las leyes o políticas. Esto no significa divulgar identidades. Piense en cómo nos sentimos lo suficientemente seguros como para subirnos al auto de un extraño porque vemos reseñas de usuarios y sabemos que Uber ha verificado la identidad del conductor. De manera similar, las empresas de redes sociales deben autenticar al ser humano detrás de cada cuenta e introducir funciones basadas en la reputación para alentar a las cuentas a ganarse la confianza de la comunidad.

2.     Conozca todas las fuentes. Conocer la procedencia del contenido y la hora en que ingresó a la red puede mejorar la confianza y la seguridad. Como primer paso, utilizar una marca de tiempo y una dirección IP cifrada (y no extraíble) garantizaría un punto de origen identificable. Los malos actores y sus feeds, detectables a través de la cadena de custodia, podrían perder prioridad o prohibirse en lugar de amplificarse algorítmicamente. Si bien el tráfico de VPN puede impedir la detección, las plataformas pueden intensificar sus esfuerzos para mejorar la identificación de las VPN. 

3.     Identificar deepfakes . De acuerdo con la amplia orden ejecutiva del presidente Biden sobre IA , que requiere que el Departamento de Comercio desarrolle una guía para poner marcas de agua en el contenido generado por IA, las plataformas deberían desarrollar aún más herramientas de detección y etiquetado. Una manera de que las plataformas comiencen es escanear una base de datos de imágenes existente y decirle al usuario si una imagen no tiene historial (Google Imágenes, por ejemplo, ha comenzado a hacer esto). Los sistemas de inteligencia artificial también pueden entrenarse para detectar firmas de deepfakes, utilizando grandes conjuntos de imágenes veraces contrastadas con imágenes etiquetadas como falsas. Dicho software puede indicarle cuándo una imagen tiene una alta probabilidad de ser deepfake, similar al aviso de "riesgo de spam" que recibe en su teléfono cuando entran llamadas de ciertos números.

4.     Filtrar anunciantes. Las empresas pueden compartir una “lista segura” de anunciantes entre plataformas, aprobando a aquellos que cumplan con las leyes de publicidad aplicables y se ajusten profesionalmente a los estándares publicitarios de las plataformas. Las plataformas también necesitan intensificar su escrutinio de los anuncios políticos, añadiendo descargos de responsabilidad destacados si se utiliza contenido sintético. Meta, por ejemplo, anunció este mes que exigiría que los anuncios políticos revelaran si utilizaban IA.  

5.     Utilice humanos reales para ayudar . Por supuesto, habrá errores y parte del contenido no confiable escapará de las protecciones. Pero el caso de Wikipedia muestra que la desinformación puede ser controlada por humanos que siguen reglas de contenido claras y muy detalladas. Las empresas de redes sociales también deberían publicar reglas de calidad para el contenido y hacerlas cumplir, equipando aún más a sus equipos de confianza y seguridad, y potencialmente aumentando esos equipos proporcionando herramientas a los voluntarios. Queda por ver cómo los humanos defienden una avalancha de material generado por IA a partir de chatbots, pero la tarea será menos desalentadora si se implementan sistemas de IA capacitados para detectar y filtrar dicho contenido. 

6.     Invierta en investigación. Para que todos estos enfoques funcionen a escala, necesitaremos un compromiso a largo plazo, comenzando ahora. Mi grupo filantrópico está trabajando para ayudar a crear marcos de prueba gratuitos y de código abierto para muchos grupos de seguridad y confianza en IA. Los investigadores, el gobierno y la sociedad civil también necesitarán un mayor acceso a los datos críticos de la plataforma. Un proyecto de ley prometedor es la Ley de Transparencia y Responsabilidad de Plataformas , que, por ejemplo, exigiría que las plataformas cumplan con las solicitudes de datos de proyectos aprobados por la Fundación Nacional de Ciencias.

Con un esfuerzo concertado de las empresas, los reguladores y el Congreso, podremos adoptar estas propuestas el próximo año, a tiempo para marcar la diferencia. Mi preocupación es que todo el mundo se beneficia de la información errónea o desinformación favorable en diversos grados: nuestros ciudadanos se divierten con ese contenido, nuestros líderes políticos pueden hacer campaña con él y los medios generan tráfico cubriendo ejemplos sensacionalistas. Las estructuras de incentivos existentes harán que la información errónea sea difícil de eliminar.  

Las plataformas de redes sociales necesitan repensar fundamentalmente su diseño para la era de la IA, especialmente ahora que las democracias enfrentan una prueba histórica en todo el mundo. Para mí está claro que el futuro será uno de muchos espacios en línea descentralizados que atiendan todos los intereses, reflejen las opiniones de humanos reales (no robots) y se centren en preocupaciones concretas de la comunidad. Pero hasta que llegue ese día, establecer estas barreras ayudará a garantizar que las plataformas mantengan un estándar saludable de discurso y no permitan que algoritmos opacos e impulsados ​​por la participación permitan que el contenido electoral basado en inteligencia artificial se generalice.

https://www.technologyreview.com/2023/12/15/1085441/eric-schmidt-plan-for-fighting-election-misinformation

Comentarios