Facebook no tiene un botón para pedir ayuda. Las redes sociales como entes sin alma y sin conciencia de su propia existencia no tienen esa capacidad. Ojalá la tuvieran, porque a tenor de los acontecimientos de este mes de octubre no sería un mal momento para programárselo. Sin embargo, los directivos que en principio si la tienen, deberían usarla para pedir ayuda cuando la necesitan, y me temo no están por la labor. Sobre esta cuestión, el pasado 6 del mes que se nos acaba, una exempleada llamada Frances Haugen declaró en una comisión especial del capitolio por los riesgos que a su juicio supone la política actual del gigante Facebook para la salud mental de los menores, para la manipulación y la libertad de los usuarios, y para el deterioro que el uso de los algoritmos que seleccionan la información que vemos en las redes de la gran plataforma supone para nuestra democracia, valor estructural que nos distingue de los animales y nos separa de la barbarie.
Un algoritmo es y son instrucciones matemáticas que siguen una secuencia, especialmente diseñados para las computadoras. Les dicen qué hacer con ciertas entradas para producir ciertos resultados. Sirva el símil de la receta de cocina, en la que los ingredientes son las entradas y el plato final es el resultado. En Facebook y otras, lo que escribes o las imágenes que publicas serían las entradas. Lo que luego la red social muestra a tus contactos es el resultado.
Facebook actualmente contiene un flujo constante de información y de anuncios (ambas cosas seleccionadas por algoritmos), siendo una red social muy diferente a lo que fue. En 2004, en su lanzamiento como sitio para estudiantes universitarios, era complicado navegarla: si querías ver lo que publicaban tus amigos tenías que visitar sus perfiles uno tras otro. Esto cambia en 2006, cuando introduce el feed de noticias, que ofrecía a los usuarios una fuente de actualizaciones de la red de contactos más cercana. Desde el principio, Facebook utilizó algoritmos para filtrar y seleccionar el contenido que los usuarios veían en las noticias.
En un artículo de la revista Time de 2015, el director de producto de la compañía, Chris Cox, dijo que la intervención en la libertad de la selección por parte de los usuarios era necesaria incluso entonces porque había demasiada información para mostrarla toda a cada usuario. Con el tiempo, los algoritmos de Facebook evolucionan y los usuarios dejan obligatoriamente a algoritmos que determinen qué y cómo se les presenta su contenido en el gran buffet de Facebook.
Volvamos a Frances Haugen. Exgerente de producto de Facebook. La exempleada de Facebook declaró en la subcomisión del Senado de Protección del Consumidor, Seguridad de Productos y Seguridad de Datos sobre el funcionamiento interno de la empresa gracias a su trabajo anterior y a las miles de páginas de documentos internos que aportó a los legisladores. Haugen explicó el funcionamiento técnico de las plataformas dependientes de Facebook citando ejemplos de los daños reales que pueden causar y que están causando, sin escatimar conexiones con brotes de violencia ni con resultados electorales.
Frances Haugen, de nuevo, después de estudiar ingeniería eléctrica e informática, seguido de un MBA en Harvard trabajó en varias empresas de tecnología antes de Facebook, incluidas Google, Pinterest, Yelp y la aplicación de citas Hinge, se especializa en "gestión algorítmica de productos" y ha trabajado en varios algoritmos de clasificación similares al que usa Facebook para organizar su principal suministro de noticias, explicó a modo de presentación y legitimación en su testimonio. Centrando sus críticas principalmente en el algoritmo de la empresa diseñado para mostrar a los usuarios los contenidos con los que es más probable que participen. Según ella, este algoritmo es el responsable de la amoralidad de Facebook: fomento de la polarización, desinformación y exposición a contenidos tóxicos para la salud mental del usuario. En una aparición en el programa "60 Minutes" de la cadena norteamericana en abierto CBS, dijo que Facebook entiende que si hace que el algoritmo sea más seguro, "la gente pasará menos tiempo en el sitio, hará clic en menos anuncios y ganará menos dinero".
La srta. Haugen, declaró en la comisión que los productos de Facebook "dañan a los niños, avivan la división y debilitan nuestra democracia", y anteponen las ganancias a la responsabilidad moral, dijo a los legisladores. "Estos problemas se pueden resolver. Es posible crear redes sociales más seguras, que respeten la libertad de expresión y que se disfruten más", dijo Haugen. "Facebook puede cambiar, pero claramente no lo hará por sí solo. (...) El Congreso puede cambiar las reglas que sigue Facebook y detener los muchos daños que está causando".
La audiencia que vengo usando de contexto se ha producido en un momento en que Facebook ya se enfrenta a un creciente escrutinio regulatorio y a las trompetas de batalla que claman para dividir la empresa. De hecho, las críticas a la compañía son un punto raro de acuerdo bipartidista entre los legisladores, y el testimonio que vengo usando como hilo conductor puede contribuir al consenso que Facebook debe estar controlado por la legislación. Al igual que otros procesos necesarios y beneficiosos pero potencialmente dañinos para el ser humano, como el consumo de sustancias psicoactivas o la regulación de las normas de conducción.
Tras la audiencia, el presidente de la subcomisión y senador Richard Blumenthal, dijo que encontraba los comentarios de Haugen "convincentes" y "creíbles". "Frances Haugen quiere arreglar Facebook, no quemarlo", dijo Blumenthal. Es este de facto uno de los mayores activos de la testigo que declaró estar allí porqué cree en el potencial de Facebook para el bien, si la empresa es capaz de abordar sus graves problemas. Incluso dijo que volvería a trabajar para Facebook si tuviera la oportunidad. También dijo que está en contra de que se divida Facebook, proponiendo la línea de soluciones colaborativas con el Congreso, con el argumento que "estos sistemas seguirán existiendo y serán peligrosos incluso si se dividen".
Haugen sugirió para finalizar que el Congreso le dé a Facebook la oportunidad de "declararse en bancarrota moral y podamos encontrar la manera de arreglar estas cosas juntos". Cuando se le pidió aclaración sobre el uso del término "bancarrota moral", dijo que imaginaba un proceso como la bancarrota financiera donde hay un "mecanismo" para "perdonarlos" y "seguir adelante". "Facebook está atascado en un circuito de retroalimentación del que no pueden salir (...) necesitan admitir que hicieron algo mal y que necesitan ayuda para resolver estos problemas. Y eso es lo que es la bancarrota moral", sentenció la sorprendente testimonio.
La directora de gestión de políticas globales de Facebook, Monika Bickert, entrevistada por la CNN, tras la comparecencia de Haugen en el Senado, dice que "no es cierto" que los algoritmos de la empresa estén diseñados para promover el contenido incendiario.
Sin embargo, la cascada de opinión aunque no tenga mucho fuerza pública es probable que si la tenga legislativa, bajo el paraguas del planteamiento de hasta qué punto Facebook, y similares, deben replantearse sus algoritmos para determinar qué imágenes, videos y noticias se lanzan a los usuarios. Sube a la palestra el algoritmo de Facebook que recomienda contenidos.
Los algoritmos que eligen lo que vemos son pieza clave para Facebook y para numerosas plataformas sociales a la par de esta pionera y rica iniciador de Silicom Valley. TikTok, por ejemplo, sería otra con una supervisión dudosamente ética de los algoritmos de recomendación de contenidos. Y a mayor tamaño de la plataforma, mayor la necesidad de algoritmos que filtren y clasifiquen el contenido por el usuario. ¿Quién los supervisa para ver que esa selección no es nociva para el usuario? ¿O solo e centra esa supervisión en cómo venderle más zapatillas deportivas de marca?.
Nadie se lleve a engaño. Los algoritmos no se suprimirán. Pero hay formas de mejorarlos. Esto necesita algo que Facebook puede haber perdido antes de quebrar moralmente (como causa directa): tratar a las personas con transparencia y dando a los usuarios el control de lo que ingieren de y en la plataforma.
Según expertos en algoritmos e inteligencia artificial de CNN Business existen maneras de hacer que los procesos sean más claros y que los usuarios tengan voz firme en las elecciones sobre el funcionamiento de la información que se recibe individualmente.
Margaret Mitchell, directora de ética en inteligencia artificial para el constructor de modelos de IA Hugging Face, que llegó a codirigir el equipo de ética de la inteligencia artificial de Google, cree que la transparencia podría generarse permitiendo ver los detalles de por qué se ve lo que se ve en las redes sociales, como en respuesta a publicaciones, anuncios y distintos menús así como botones de opciones con los que se interactúa en la experiencia usuario. "Incluso puedes imaginar que tienes algo que decir al respecto. Podrías seleccionar preferencias para el tipo de cosas que quieres que se optimicen para ti", dijo, como la frecuencia con la que quieres ver el contenido de tu familia inmediata, tus amigos del instituto o las fotos de gatitos. Todas estas cosas pueden cambiar con el tiempo. ¿Por qué no dejar que los usuarios las controlen?.
La transparencia es la clave, dijo la señorita Mitchell, porque incentiva el comportamiento ético y responsable de las redes sociales, puedo añadir al escribir el final de este articulo. Haugen por su parte sugiere un replanteamiento radical de cómo debería funcionar el feed de noticias para abordar los problemas a debate y juicio. "Soy una firme defensora de la clasificación cronológica, del ordenamiento por tiempo", dijo como colofón a su testimonio. "Porque creo que no queremos que las computadoras decidan en qué nos centramos".
El gran obstáculo, según expertos, para lograr mejoras significativas es el enfoque actual de las redes sociales priorizando lo que en otro tiempo se priorizo con la nicotina, que no es otra cosa que la venta y la utilización de la atención del usuario entendido solo como cliente en detrimento de su parte emocional y frágil como persona. Lamentablemente como conclusión actual debo escribir que en plataformas donde pasamos de media 2 horas diarias conectados (siendo optimista) se prioriza hasta en sus intestinos algorítmicos la cantidad de tiempo que pasamos en ellas con los dedos enganchados a la pantalla sin dejar de deslizar imágenes hacia abajo para que no dejen de aparecer nuevas. Y cuando se rompe la moralidad de quién o qué gestiona a lo que estamos conectados, los eslabones especialmente más débiles como los niños o la personas excluidas suelen pagar las consecuencias.
Haugen reveló documentos internos de Facebook demostrando que la red social es consciente de sus "mecánicas de producto principales, como la viralidad, las recomendaciones y la optimización de la participación" y de la conexión de esto con razones promotoras del discurso de odio y de la desinformación que crece en su plataforma, y en la sociedad. La imagen de capullos floreciendo insertos en turbas que zarandean coches para hacerse una foto y subirla a alguna plataforma citada valga de ejemplo no solo botánico.
Última cuestión irrenunciable. ¿Se puede cambiar? Algunos dirán que se necesitaría la presión de los anunciantes, cuyos dólares más que euros (no recuerdo cómo se llama la moneda china) apoyan estas plataformas. Pero otras personas enuncian una inversión distinta e irrenunciable: la presión del Congreso americano y porque no de las instituciones europeas. Sin legislación concreta estamos atados a contenidos virales ya sea en Internet, en las calles o en el cambio climático.
CLARE DUFFY, CÑN, 6/10/2021 PORQUÉ LA DENUNCIANTE FRANCES HAUGEN ES LA PEOR PESADILLA DE FACEBOOK. https://cnnespanol.cnn.com/2021/10/06/frances-haugen-pesadilla-facebook-analisis-trax
RACHEL METZ, CÑN, 10/10/2021, EL ÉXITO DE FACEBOOK SE BASÓ EN ALGORITMOS ¿PUEDEN TAMBIÉN ARREGLARLO? https://cnnespanol.cnn.com/2021/10/10/exito-facebook-algoritmos-arreglarlos-trax
Commentaires