womens jumper replica bags sizes chart
replique montre are excellent and inexpensive!
the friction between hair wigs and shoulders will also cause the best wigs to become dry and tangle.

Las plataformas tecnol√≥gicas han construido el n√ļcleo de sus negocios en torno a algoritmos inform√°ticos secretos y los legisladores y reguladores ahora quieren saber qu√© hay dentro de esas cajas negras.

Porque importa: Los algoritmos, las fórmulas para la toma de decisiones por computadora, son responsables de lo que se muestra en Facebook, Twitter y YouTube y, cada vez más, de las decisiones que toman las empresas acerca de quién obtiene un préstamo, una libertad condicional o una plaza en una universidad.

Como funciona: Cuando las publicaciones ¬ęse vuelven virales¬Ľ, los algoritmos son la raz√≥n. A menudo funcionan detectando peque√Īas se√Īales en el inter√©s del usuario y amplific√°ndolas.

  • La complejidad y oscuridad de los algoritmos han ayudado a las empresas de tecnolog√≠a a argumentar que se trata de plataformas neutrales. Tambi√©n permiten que las empresas permanezcan al mismo tiempo alejadas de la responsabilidad de las decisiones sobre promoci√≥n y relegaci√≥n de contenido.
  • Pero los usuarios y cr√≠ticos, cada vez m√°s conscientes del poder de estos sistemas, ahora quieren que las empresas sean m√°s responsables de los resultados que produce su c√≥digo.

Conduciendo las noticias: En una audiencia sobre ¬ęAlgoritmos y amplificaci√≥n¬Ľ, ejecutivos de YouTube, Twitter y Facebook, junto con la investigadora de Harvard Joan Donovan y la √©tica Tristan Harris, testificar√°n el martes ante el subcomit√© de privacidad, tecnolog√≠a y derecho de la Comisi√≥n Judicial del Senado. .

  • El subcomit√© est√° dirigido por el senador Chris Coons (dem√≥crata por Delaware) y el miembro de mayor rango, el senador Ben Sasse (republicano por Nebraska).

El panorama: Las agencias gubernamentales de todo el mundo est√°n comenzando a abordar problemas relacionados con los algoritmos y el aprendizaje autom√°tico.

Nuestra burbuja de pensamiento: La conversaci√≥n en los c√≠rculos pol√≠ticos se ha centrado durante mucho tiempo en los l√≠mites externos de las decisiones de contenido: decisiones sobre qu√© eliminar y qui√©n es prohibido. Estos son los que la gente del software llama ¬ęcasos extremos¬Ľ. Qu√© se recomienda y por qu√© est√° en el centro del problema.

Entre líneas: Las plataformas han utilizado durante mucho tiempo sus algoritmos para aumentar las métricas comerciales, como la cantidad de tiempo que pasan en su sitio. Sin embargo, cada vez más, también reconocen y aprovechan el poder de los algoritmos para limitar la difusión de información errónea o discursos de odio que no merecen una prohibición total.

  • Twitter ha utilizado sus poderes algor√≠tmicos de diversas formas, incluida la colocaci√≥n de contenido potencialmente ofensivo detr√°s de una bandera de advertencia y la restricci√≥n de los retweets de informaci√≥n que no est√° listo para prohibir por completo.
  • YouTube ha cambiado sus motores de recomendaci√≥n para alejarse de las teor√≠as de la conspiraci√≥n y otro ¬ęcontenido l√≠mite¬Ľ criticado por llevar a la gente a la trampa que puede ser √ļtil para aumentar el tiempo que pasan en el sitio, pero es malo para la sociedad.
  • Facebook cambi√≥ la forma en que recomienda grupos a los usuarios en un esfuerzo por reducir la radicalizaci√≥n y modific√≥ su algoritmo para mostrar m√°s noticias de fuentes cre√≠bles, entre otros cambios.
  • Las plataformas han intentado durante mucho tiempo evitar tales medidas por temor a que se les vea como si estuvieran poniendo sus pulgares en la balanza. Pero su inacci√≥n ha permitido que los problemas crezcan sin control, incluida la interferencia electoral, la proliferaci√≥n de teor√≠as de conspiraci√≥n, la duda sobre las vacunas y la desinformaci√≥n de Covid-19.

s√≠, pero: Algunos pol√≠ticos ven estos esfuerzos como otra se√Īal de la injusticia de las plataformas.

  • A la derecha, las quejas de ¬ęprohibici√≥n en la sombra¬Ľ provienen de situaciones en las que las plataformas han restringido la difusi√≥n del contenido de los usuarios en lugar de prohibirlo por completo.

Qu√© ver: Los asesores dem√≥cratas le dijeron a Axios que ven la audiencia de hoy como una oportunidad para restaurar la conversaci√≥n sobre los algoritmos y su papel en el discurso p√ļblico, un tema que a menudo se ha politizado y se ha convertido en disputas partidistas.

  • Los asistentes no pueden esperar para ingresar al algoritmo de recomendaci√≥n de YouTube, que ofrece videos sugeridos para los usuarios seg√ļn su historia. Una pregunta que puede surgir es con qu√© frecuencia se recomienda a los usuarios de YouTube contenido que luego se descubre que infringe las pol√≠ticas de YouTube, dijo un asistente.
  • La polarizaci√≥n en torno a las elecciones presidenciales de 2020 y el papel de las redes sociales en el levantamiento del Capitolio del 6 de enero hacen que la audiencia sea especialmente importante ahora, dijeron los asistentes.

Las empresas tecnológicas ven sus algoritmos como una especie de secreto comercial y son reacios a exponer sus mecanismos internos, tanto para mantenerlos fuera de competencia como para dificultar que los usuarios jueguen con sus sistemas.

  • Los recientes esfuerzos de transparencia de las empresas son alentadores, dijeron los asistentes del comit√©. Pero mucha informaci√≥n sobre qu√© contenido permanece activo y c√≥mo los algoritmos sopesan los diferentes factores en la clasificaci√≥n de las publicaciones a√ļn se mantiene en secreto, dijo un asistente.

Las empresas tecnológicas se espera que se concentren en los pasos que ya están dando:

  • ofrecer feeds hist√≥ricos como alternativa a los algor√≠tmicos;
  • limitar la difusi√≥n del ¬ęcontenido l√≠mite¬Ľ;
  • y proporcionar formas para que las personas indiquen m√°s claramente el tipo de contenido que desean ver.

Se inteligente: Cuando el Congreso consigue que un grupo de ejecutivos de tecnología testifique, la conversación puede convertirse rápidamente en problemas individuales de los legisladores con las empresas.

  • Pero varias audiencias recientes han mostrado un inter√©s m√°s bipartidista en comprender realmente c√≥mo regular la tecnolog√≠a que en el pasado, y los algoritmos son de inter√©s para los reguladores de todo el mundo.

Acerca del autor

Jaume Torres

Dejar un comentario