Nueve de las empresas de tecnología más grandes del mundo se han unido para establecer una estructura industrial para tratar el contenido malicioso y el comportamiento en línea.

Porque importa: Las empresas de tecnolog√≠a, que enfrentan la amenaza de los legisladores estadounidenses que est√°n considerando cambiar las reglas sobre el contenido del que son responsables en sus plataformas, est√°n ansiosas por recuperar la confianza del p√ļblico.

Detalles: La Asociación de Confianza y Seguridad Digital, con Facebook, Google, Microsoft, Twitter, Discord, Pinterest, Reddit, Shopify y Vimeo listados como sus miembros, desarrollará un marco de mejores prácticas para administrar contenido y comportamiento malicioso en línea, basado en cinco compromisos para :

  1. Antic√≠pese a los riesgos del mal uso como parte del dise√Īo del producto y desarrolle formas de prevenir el mal uso o abuso.
  2. Adopte reglas de conducta y contenido de los usuarios que sean claras y coherentes.
  3. Aplica las reglas. El marco incluye ejemplos de mejores prácticas para las operaciones de aplicación, incluida la inversión en el bienestar y la resistencia de los equipos que se ocupan de materiales sensibles.
  4. Mant√©ngase al d√≠a con los riesgos en evoluci√≥n y vea si las pol√≠ticas son efectivas para limitar el contenido o el comportamiento da√Īino.
  5. Informar periódicamente sobre las acciones tomadas con respecto a quejas, cumplimiento de la ley y otras actividades relacionadas con la confianza y la seguridad.

Sí, pero: Es poco probable que esto afecte los enfoques existentes de empresas individuales para moderar el contenido creado por sus usuarios. La asociación dice que no tiene como objetivo crear una definición para toda la industria de, digamos, discurso de odio o desinformación, sino definir los procesos internos que las empresas deben utilizar para desarrollar sus políticas.

  • ¬ęEl objetivo es que haya suficiente flexibilidad para que diferentes empresas puedan tener diferentes definiciones sustantivas de estas cosas y aun as√≠ estar de acuerdo si tiene una variedad de pr√°cticas institucionales que las abordan¬Ľ, dijo Alex Feerst, ex consultor general de Medium, quien asesora el grupo.

Entre l√≠neas: Los legisladores han pedido una mayor transparencia sobre c√≥mo las empresas de tecnolog√≠a moderan el contenido, adem√°s de proponer nuevas leyes para abordar las preocupaciones sobre da√Īos en l√≠nea. Este nuevo esfuerzo es una forma de respuesta de las empresas.

  • ¬ęMejorar todas las mejores pr√°cticas y ponerlas a disposici√≥n, creo que es un paso en el camino, con suerte para establecer una mayor confianza entre el gobierno y las empresas de tecnolog√≠a, especialmente porque realmente entra en los detalles de¬Ľ Aqu√≠ hay mucha m√°s informaci√≥n concreta sobre exactamente lo que hacemos ‘¬Ľ, dijo Feerst.

Que sigue: Las empresas quieren comentarios y realizarán revisiones internas y externas sobre cómo lo están implementando.

  • ¬ęEsto nos pone en el camino de la transparencia, pero tambi√©n de tener evaluaciones externas de que la empresa realmente est√° cumpliendo con estos compromisos¬Ľ, dijo Feerst.

Nuestra burbuja de pensamiento: Las empresas de tecnología, bajo presión, han anunciado muchos esfuerzos radicales para abordar los problemas de moderación de contenido. Si bien han mejorado en la emisión de informes de eliminación de contenido, solo las auditorías de terceros podrán determinar si las empresas son realmente exitosas.

  • Feerst dice que un auditor externo imparcial evaluar√° qu√© tan bien las empresas est√°n cumpliendo con sus compromisos.

Acerca del autor

Jaume Torres

Dejar un comentario