Menu

O Facebook e o Twitter devem rever suas postagens antes de serem publicadas?

WhatsApp
Facebook
Telegram
X
LinkedIn
Email

O dia está chegando quando suas postagens nas mídias sociais podem viajar através de postos de controle antes que as mensagens se tornem públicas.

Todas as suas postagens no Facebook, Twitter e outras plataformas sociais podem ser examinadas instantaneamente por um filtro de inteligência artificial que enraiza o discurso de ódio e a desinformação. Alguns posts que foram sinalizados por inteligência artificial podem então ser revisados por um supervisor humano.

Essa é a recomendação de Usama Fayyad, diretor executivo do Instituto de Inteligência Artificial Experiencial do Nordeste, em resposta ao desejo cada vez mais urgente de fiscalização das mídias sociais.

Fayyad acredita que os filtros de mídia social são necessários porque as plataformas cresceram e escalaram mais rápido do que podem ser regulamentadas — com o resultado de que os canais sociais estão sendo agora acusados de permitir discursos de ódio e desinformação que contribuem para a violência, incluindo o ataque de 6 de janeiro ao Capitólio dos EUA.

“As mídias sociais precisam passar por algum obstáculo, principalmente algorítmico e automatizado, mas corretamente aumentadas com a intervenção humana certa”, diz Fayyad, líder em inteligência artificial. “O problema da desinformação é difícil, mas não impossível.

“Sabemos que algumas coisas se encaixam nessa zona de incerteza onde ainda precisamos de julgamento humano”, diz ele “Com um ciclo de feedback relevante que alavanca adequadamente o julgamento humano, quanto mais lidamos com essas questões através da intervenção humana, mais o sistema aprende — e quanto mais inteligente a tecnologia fica.”

O Facebook vem desenvolvendo ferramentas de inteligência artificial para eliminar a “má atividade”, disse Mark Zuckerberg, executivo-chefe da gigante das mídias sociais, em depoimento no Congresso desde 2018. Mas será que os maiores canais sociais — incluindo Facebook, Twitter e Instagram.

Fayyad está propondo uma mídia social equivalente ao atraso de sete segundos que as redes de TV usam ao cobrir esportes e outros eventos ao vivo. Se um artista usa palavrões, o atraso permite que os censores silenciem a linguagem suja antes que ela possa ser transmitida para casas.

“As empresas de mídia social alcançaram sua missão de transformar a forma como nos comunicamos”, diz Fayyad. “Temos que lembrar que todas essas empresas são bastante novas, e que não tivemos tempo de pensar sobre as questões como sociedade.

“Este é um ambiente onde algo como as mídias sociais pode surgir e dentro de dois ou três anos se tornar onipresente”, diz Fayyad. “Nós não vimos isso na história da humanidade antes. Precisamos de uma nova maneira de pensar em torno da regulação e do que ela significa e quão rapidamente evoluí-la.”

Os esforços nascentes das plataformas para desenvolver filtros são promissores, diz Christo Wilson, professor associado de ciência da computação da Northeastern. Há uma série de maneiras de peneirar o mau comportamento: o Reddit lembra aos usuários que eles são responsáveis pelas diretrizes da comunidade, observa Wilson, o que reduz conflitos, discursos de ódio e desinformação.

Wilson acrescenta que as grandes empresas de mídia social mostraram uma capacidade de farejar violações de direitos autorais e propaganda terrorista.

“As plataformas são realmente muito boas em pegar essas coisas, porque têm incentivos muito fortes para fazê-lo”, diz Wilson, que também dirige o programa de bacharelado da Northeastern em cibersegurança. “Então não é como se eles não pudessem fazer moderação de conteúdo.”

Os professores nordestinos dizem que a meta de limitar maus atores exigirá um mínimo de três passos:

Regulação governamental

Há apoio bipartidário às leis para conter o poder das maiores plataformas.

Wilson argumenta que as empresas de mídia social não podem ser solicitadas a estabelecer padrões, policiar-se ou assumir total responsabilidade por agir no melhor interesse da sociedade quando essas medidas podem afetar os lucros.

“Em algum momento, eles terão que decidir o que está além do pálido, e como ele deve ser remediado por atores privados”, diz Wilson sobre os reguladores do governo. “E tenho certeza que, imediatamente, alguém vai processar e levar [os regulamentos] para o Supremo Tribunal Federal. Talvez ele vai falhar, mas ainda temos que tentar.

Fayyad acredita que regulamentos abrangentes incluirão pesadas multas governamentais para plataformas que permitam discursos de ódio e desinformação. Tais penalidades criarão incentivos adicionais para investir na moderação e tecnologia de conteúdo necessárias.

Desenvolvimento da inteligência artificial

A evolução dos mecanismos de busca fornece um exemplo útil.

“Foi exatamente assim que os populares mecanismos de busca, incluindo o Google, surgiram”, diz Fayyad. “Eles começaram com um algoritmo básico, e então eles precisavam de muito feedback com literalmente dezenas de milhares de pessoas editoriais revisando os resultados de pesquisa. No ano 2000, provavelmente parecia impossível: os mecanismos de busca não eram tão bons, o problema era muito difícil, a web estava crescendo rápido.

“É incrível o quão longe a tecnologia de pesquisa chegou, apenas incorporando esse loop de feedback e essa capacidade de capturar aprendizados e melhorar continuamente ao longo do tempo”, diz Fayyad. “Então, estou esperançoso de que a tecnologia possa ajudar. O monitoramento inteligente não é um problema impossível.”

Inclua humanos no loop

Os regulamentos ajudarão a definir o papel da supervisão humana sempre que um post for sinalizado por inteligência artificial.

“Se você se recusa a hospedá-lo inteiramente, ou ele vai para revisão humana, há um monte de questões normativas lá”, diz Wilson. “E então haverá problemas com a revisão humana também. Mas se aceitarmos que as redes sociais e as mídias sociais serão enormes, temos que ter sistemas de moderação em escala — e não há como negar que a IA e o aprendizado de máquina farão parte disso.”

Wilson diz que o papel da revisão humana pode depender de uma nova perspectiva sobre as plataformas e seu papel na sociedade.

“Quando as plataformas se descrevem, elas não falam sobre moderação de conteúdo”, diz Wilson. “Eles falam sobre ser uma comunidade aberta. E isso estabelece uma expectativa de que as pessoas possam fazer o que quiserem. Então eles precisam reconhecer mais fortemente seu papel na formação do discurso.”

Wilson acredita que o dano das más intenções pode ser ainda mais limitado se as grandes plataformas forem divididas em canais menores que não serão mais capazes de influenciar grandes populações.

“A capacidade de espalhar mensagens [perigosas] e realmente impactar o mainstream está muito ligada à centralização das plataformas de mídia social”, diz Wilson. “Essa é uma das razões pelas quais também sou a favor de remédios antitruste: plataformas menores têm um pouco mais de latitude para fazer mal ou não moderar bem, mas há menos danos colaterais.”

Fayyad diz que a maioria dos usuários não notará as novas medidas.

“Noventa a 95% dos posts espero que não sejam bloqueados e não devem ter nenhuma intervenção”, diz Fayyad, que espera que a porcentagem relativamente pequena de conteúdo nocivo facilite a captura.

Desenvolver a tecnologia será caro, reconhece Fayyad. Mas ele acredita que, em última análise, pagará por si mesmo.

“Você cria valor econômico”, diz Fayyad. “As pessoas tendem a usar as mídias sociais em que confiam e que sabem que estarão seguras. E isso vai valer alguma coisa.

Fonte: techxplore