O que é a Lei dos Serviços Digitais?

Desde 25 de agosto de 2023, os consumidores podem proteger-se melhor contra a desinformação e as notícias falsas online. A Lei dos Serviços Digitais entrou em vigor em toda a União Europeia (UE).

Por Heinrich Vaske

Em 25 de agosto, a Lei dos Serviços Digitais (DSA, no acrónimo em inglês) entrou em vigor em toda a UE. Aprovada em novembro de 2022, só se aplica, por enquanto, a grandes fornecedores como a Google, Facebook, Amazon, entre outros. No entanto, a partir de 17 de fevereiro de 2024, passa a regular todas as empresas e organizações que oferecem serviços digitais.

Isto significa que os fornecedores de plataformas e marketplaces em linha serão em breve confrontados com muitas novas obrigações em matéria de proteção dos consumidores. Se não as cumprirem, enfrentarão multas consideráveis e pedidos de indemnização. No pior dos casos, poderão ir até seis por cento do seu volume de negócios anual. Assim, é aconselhável estabelecer novos processos de conformidade o mais rapidamente possível. Neste artigo, reunimos os dados mais importantes para os leitores da Computerworld.

O que é a Lei dos Serviços Digitais?

A partir de 25 de agosto de 2023, inicialmente apenas as 17 maiores plataformas online e os dois principais motores de busca têm de cumprir obrigações de grande escala para proteger os consumidores. Entre outras coisas, são obrigados a avaliar anualmente os riscos associados à utilização dos seus sistemas e a comunicar os resultados às autoridades. Devem também criar um sistema de controlo independente.

De momento, são afetadas pelo regulamento as seguintes plataformas Internet com, pelo menos, 45 milhões de utilizadores ativos mensais:

  • Alibaba AliExpress,
  • Amazon Store,
  • Apple AppStore,
  • Booking.com,
  • Facebook,
  • Google Play,
  • Google Maps,
  • Google Shopping,
  • Instagram,
  • LinkedIn,
  • Pinterest,
  • Snapchat,
  • TikTok,
  • Twitter/X,
  • Wikipédia,
  • YouTube
  • Zalando.

Bem como os motores de busca:

  • Microsoft Bing e
  • Google Search.

Os regulamentos destinam-se a reforçar e a proteger a capacidade de ação dos consumidores, nomeadamente a dos menores. Assim, os fornecedores são obrigados a avaliar e reduzir sistematicamente os riscos emergentes e a “fornecer ferramentas robustas de moderação de conteúdos”.

O que significa o facto de a UE querer “reforçar a capacidade de ação dos consumidores”?

Os utilizadores devem ser informados sobre a forma como lhes é recomendado um conteúdo específico. Têm também o direito de rejeitar os sistemas de recomendação se estes se basearem nos perfis dos utilizadores.

Os conteúdos ilegais devem poder ser denunciados rápida e facilmente. As plataformas têm o dever de acompanhar e responder a essas denúncias.

As empresas da Internet devem rotular a publicidade e informar os utilizadores sobre a sua proveniência. Além disso, a publicidade não deve ser veiculada com base em opiniões políticas, origem étnica, orientação sexual ou outros dados sensíveis.

As plataformas são obrigadas a fornecer os seus termos de utilização e condições gerais num resumo facilmente compreensível – em todas as línguas da UE, incluindo o português.

Como é que os menores serão mais protegidos?

Para garantir a proteção da privacidade e segurança das crianças e jovens, os responsáveis pelas plataformas devem efetuar e publicar avaliações de risco, periodicamente. Estas avaliações centram-se nos possíveis efeitos negativos dos conteúdos na saúde mental dos utilizadores. Não é permitida a publicidade baseada em perfis de consumo de crianças. As plataformas devem reformular os seus serviços, incluindo as interfaces, os sistemas de recomendação e os “Termos e Condições”, para atenuar esses riscos.

Quais são os deveres de moderação dos operadores de plataformas?

O seu dever consiste, nomeadamente, em contrariar a difusão de conteúdos ilegais na rede. Para tal, devem criar um mecanismo através do qual os utilizadores possam denunciar conteúdos ilegais. Se os utilizadores se queixarem de um conteúdo, os operadores das plataformas devem reagir rapidamente e removê-lo, se necessário. Além disso, a lei exige que o Facebook, a Google e outros analisem e atenuem constantemente os respetivos riscos, a fim de combater, por exemplo, a propagação de desinformação.

Que obrigações de transparência e responsabilidade têm os operadores de plataformas?

Devem assegurar que um organismo externo independente possa verificar, em qualquer altura, as avaliações de risco dos operadores de plataformas e a sua conformidade com a legislação. Para o efeito, os investigadores devem ter acesso aos dados relevantes. Está mesmo previsto para mais tarde um “mecanismo especial para investigadores autorizados”.

As plataformas devem ainda arquivar os anúncios exibidos e mantê-los disponíveis para efeitos de auditoria. Além disso, são obrigadas a publicar relatórios de transparência sobre as decisões de moderação de conteúdos e a sua gestão de riscos.

O que significa a “avaliação anual de riscos”?

As empresas da Internet devem identificar e analisar os “riscos sistémicos” que podem resultar da utilização das suas plataformas. Estes riscos vão desde a forma como os conteúdos ilegais ou as campanhas de desinformação podem ser amplificados pelos respetivos serviços até aos possíveis efeitos na liberdade de expressão e na liberdade dos meios de comunicação social. Se forem identificados riscos, devem ser adotadas medidas adequadas para os reduzir.

Do mesmo modo, o Facebook, o X (ex-Twitter) e todos os outros serviços têm de avaliar e atenuar os riscos relacionados com a saúde mental, a violência baseada no género e a proteção de menores. É aqui que as coisas se complicam: as plataformas têm de ter os seus planos de redução de riscos auditados pelos reguladores.

Quem é que vai supervisionar tudo isto?

A Comissão Europeia quer fazer cumprir o regulamento DSA e as suas transposições nacionais para a legislação com a ajuda de uma estrutura de supervisão a nível europeu. As autoridades nacionais, que deverão supervisionar as plataformas e os prestadores de serviços digitais de menor dimensão a partir de 17 de fevereiro de 2024, serão também responsáveis pela supervisão das grandes empresas da Internet.

Para poder fazer cumprir a lei, a Comissão afirma que está a reforçar “as suas competências multidisciplinares internas e externas”. A Comissão Europeia criou também um Centro Europeu para a Transparência dos Algoritmos (ECAT). Este centro ajudará a avaliar se o funcionamento dos sistemas algorítmicos dos operadores de plataformas e dos prestadores de serviços digitais está em conformidade com as obrigações em matéria de gestão de riscos. Por último, mas não menos importante, a Comissão Europeia está a criar um ecossistema de aplicação digital para reunir conhecimentos especializados de todos os sectores relevantes.

Qual é o papel dos responsáveis pela investigação?

Para combater os conteúdos ilegais, os discursos de ódio e outros riscos relacionados com a manipulação e a desinformação, os “investigadores autorizados” poderão aceder aos dados tanto dos grandes operadores de plataformas como dos pequenos prestadores de serviços digitais. Isto permitir-lhes-á “conduzir investigações sobre os riscos sistémicos na UE”.

Por exemplo, os comissários poderão acompanhar as decisões das plataformas sobre o que os utilizadores veem e com o que entram em contacto na Internet. Além disso, terão acesso a dados anteriormente não divulgados. A Comissão Europeia tenciona apresentar um “ato delegado” para conceber um procedimento simples e claro para o acesso aos dados. Este deverá também incluir salvaguardas para evitar utilizações abusivas.




Deixe um comentário

O seu email não será publicado