O argumento de desradicalização do YouTube é realmente uma briga por transparência

O algoritmo do YouTube voltou a ser destaque quando 2019 chega ao fim, com um novo estudo publicado no arXiv, um repositório acadêmico para o que é comumente referido na academia como trabalhos de “pré-impressão” (que ainda não foram publicados). revisado por pares) sobre o código que faz a plataforma funcionar.
O artigo, de autoria do programador Mark Ledwich e da pesquisadora da UC Berkeley, Anna Zaitsev, analisa o papel do algoritmo do YouTube na recomendação de vídeos para os usuários. Fora do jornal, Ledwich foi mais longe, dizendo que seus dados – que mostram que o algoritmo do YouTube está recomendando vídeos de editoras tradicionais – demonstram, ao contrário de muitas manchetes da mídia, que o algoritmo do YouTube “desradicaliza” os usuários.

A sugestão de Ledwich de que o algoritmo do YouTube desradicaliza os usuários é um salto de várias maneiras, até porque mostrar vídeos de pessoas dos principais canais não significa que você os esteja desradicalizando. Arvind Narayanan, professor de ciência da computação em Princeton, desmascarou as alegações feitas em um tópico do Twitter aqui, assim como vários jornalistas, inclusive eu, apontando que Ledwich acompanhou o algoritmo do YouTube no final de uma mudança instigada pela plataforma depois de negativas. manchetes sobre o potencial do algoritmo de enganar as pessoas em nichos perigosos.

“O artigo em si – exceto a discussão no início – tem muitos dados interessantes, muitas conclusões interessantes a tirar, mas não que o YouTube esteja desradicalizando”, diz Guillaume Chaslot, ex-engenheiro do YouTube que trabalhou no algoritmo e agora executa o AlgoTransparency.org, que rastreia o algoritmo do YouTube.

Chaslot diz que foi abordado por Ledwich há cerca de um ano, perguntando sobre a metodologia que ele usou para criar o AlgoTransparency, embora desde então discorde de Ledwich. “Acho que ele é muito partidário e está tentando mostrar um lado da história”, diz Chaslot. “Ele parecia um cara legal, mas ele parece muito partidário, como se houvesse uma grande conspiração da mídia que está tentando destruir as mídias sociais, e ele sente que precisa salvar as mídias sociais dos guardiões da mídia.” (Ledwich inicialmente desconsiderei um contato meu dizendo: “Você pode trabalhar com alguém que talvez compartilhe mais de seus preconceitos” e se ofereceu para fornecer os dados subjacentes ao seu site, Recfluence.)

O algoritmo não tem culpa direta da radicalização, mas a radicalização é um subproduto do algoritmo
O que Ledwich ignora em seu artigo é que muitos dos dados que ele capturou foram durante um período de grande fluxo para o YouTube – mais de 2.500 alterações foram feitas no site apenas no último ano, com mais de 30 alterações no algoritmo, YouTube digamos, com o resultado de que a plataforma teve uma redução de 70% no tempo de exibição do que considera conteúdo “limítrofe” (um termo genérico). Ele também ignora o fato de que enviar vídeos com conteúdo “radicalizador” no passado não pode necessariamente ser desfeito ao enviar vídeos para fontes populares no futuro.

Há também uma pergunta sobre que tipo de conteúdo passa para “mainstream”. A análise de Chaslot do algoritmo do YouTube ao longo de 2019 mostra os canais políticos mais recomendados são Fox News e MSNBC – considerados as margens mais à direita e à esquerda da mídia convencional. “Você pode argumentar que isso é melhor que Alex Jones, mas ainda parece que o YouTube está levando as pessoas a serem cada vez mais partidárias e a lutar umas contra as outras”, diz Chaslot. Em parte, isso se deve ao tipo de conteúdo que cada canal cria. “Parece que a MSNBC e a Fox News estão acusando o outro lado de ser horrível, as pessoas são apenas mais eficientes no engajamento. Eles estão recebendo mais anúncios gratuitos do algoritmo do YouTube. A pergunta que eu levanto é: as pessoas realmente querem viver neste mundo super-partidário ou é apenas que esse mundo super-partidário é melhor para as métricas de envolvimento do YouTube? ”

De muitas maneiras, o algoritmo não é o único culpado pela radicalização, mas a radicalização é um subproduto do algoritmo. “Acho que [Ledwich e Zaitsev] estão certos ao dizer que o YouTube não é responsável pela radicalização”, diz Steven Buckley, professor associado da Universidade do Oeste da Inglaterra, que está fazendo doutorado em promoção de fontes e políticas de mídia no YouTube. na plataforma. “É o próprio conteúdo que é o problema. O YouTube considera que precisa direcionar aqueles que desejam coisas de direita para mais coisas de direita. Só que essas “coisas” estão ficando mais extremas por conta própria. ”

Costumo argumentar que o YouTube prioriza acidentes de carro em vez de secar a tinta, porque nós, como seres humanos, achamos o primeiro intrinsecamente mais interessante. E em uma economia de atenção, em uma plataforma projetada para promover e prolongar o tempo de exibição, o YouTube deseja promover conteúdo mais interessante. Muitas vezes isso significa “mais extremo”.

“Se você tem um algoritmo que recompensa o engajamento, é claro que vai direcionar as pessoas para o conteúdo limite”, diz Chaslot. “Foi o que aconteceu por um longo tempo e é o que está acontecendo.” E como o algoritmo está à procura de conteúdo cada vez mais atraente, ele leva as pessoas ainda mais à margem da aceitabilidade – cutucando a “fronteira” na medida do possível.

Mas o argumento que se agitou nos últimos dias, com pessoas que atribuem a opinião de que a grande mídia está tentando atacar o YouTube concordando com as descobertas de Ledwich, enquanto outras discordam veementemente delas, é evidência do maior problema do debate em torno do assunto. o algoritmo e radicalização. Simplesmente não temos uma noção boa de como o YouTube funciona.

Nós nos tornamos Kremlinologistas da década de 1980, adivinhando o que está acontecendo atrás de um muro reforçado gigante.

Narayanan admitiu em seu tópico no Twitter que os pesquisadores de seu laboratório haviam tentado estudar o algoritmo, mas desistiram porque era muito complexo monitorar o que ele considerava significativo – com usuários logados, vídeos recomendados, com base em uma ampla variedade de seus interesses, que é o molho secreto do YouTube.

Pelo menos duas outras equipes separadas em laboratórios de ciência da computação em todo o mundo monitoram o algoritmo e acompanham suas alterações ao longo de vários anos; Eu sei porque falo com eles com frequência, embora eles ainda não estejam na fase de produzir resultados publicáveis. Todos dizem que os esforços do YouTube para alterar o algoritmo tiveram um impacto na redução do tipo de conteúdo extremo que surgiu através de recomendações que costumavam prejudicar a plataforma.

Mas mesmo eles estão trabalhando semi-cegos. Visite qualquer reunião de criadores de conteúdo do YouTube e em questão de minutos a conversa provavelmente se voltará para o algoritmo. É como uma divindade onipotente que deve ser apaziguada o tempo todo – mas o problema é que ninguém sabe com um grau satisfatório de certeza, porque o YouTube não compartilha muitos detalhes sobre como o algoritmo funciona. Em vez disso, cabe aos criadores – e, cada vez mais recentemente, aos pesquisadores – tentar adivinhar como isso funciona e compartilhar seus resultados.

“Quando esses sistemas são opacos, suas decisões podem parecer místicas ou até sinistras”, diz Becca Lewis, pesquisadora da Universidade de Stanford, que Ledwich já havia criticado anteriormente. “Os criadores são forçados a desenvolver suas próprias teorias sobre como as coisas funcionam, e os acadêmicos tentam imitar e recriar esses sistemas de fora. Isso acaba com a confiança na plataforma e em todos que tentam entendê-la. ”
Não é apenas sobre o mecanismo da plataforma que o YouTube é cauteloso publicamente.

Ninguém sabe com segurança quantos vídeos existem na plataforma, enquanto o YouTube apenas fornece atualizações periodicamente quanto à escala de seu crescimento, geralmente de maneira vaga e, geralmente, como menções casuais em histórias maiores (por exemplo, o site mudou relativamente recentemente, sendo citada como tendo “500 horas” de vídeo carregadas a cada minuto, para “mais de 500 horas”).

Cabe a nós, que assistimos à plataforma, ler as folhas de chá e decidir se a mudança de idioma é significativa ou apenas um jornalista formulando algo de maneira diferente. Nós nos tornamos Kremlinologistas da década de 1980, adivinhando o que está acontecendo atrás de um muro reforçado gigante. Na ausência de dados concretos, podemos contar com instantâneos parciais e experiências pessoais – dos quais existem o suficiente para sugerir que houve um efeito radicalizador no YouTube no passado recente.

Chaslot concorda que “já faz tempo que o YouTube levanta a tampa” sobre como o algoritmo funciona. “Eles dizem que é difícil, eles têm muitas razões pelas quais não podem nos fornecer esses dados, mas se não temos esses dados, não sabemos para onde o algoritmo está empurrando a sociedade”.

Até que o façam, adivinharemos com vários graus de especificidade, com base em qualquer espiada que pudermos atravessar esse muro. Em uma história que publicaremos no início de 2020, há uma campanha sendo levada a obrigar o YouTube a divulgar mais informações sobre como ele funciona, embora a plataforma tenha defendido com firmeza o seu direito de não lançar mais luz sobre as coisas.

“Mais transparência não é uma solução completa, e outros pesquisadores notaram astutamente que ela pode vir com seu próprio conjunto de problemas”, diz Lewis. O principal argumento contra isso é precisamente o que está no cerne desse argumento atual: maus atores estão forçando o envelope, usando os poucos dados que temos sobre como a plataforma funciona agora. Se o funcionamento interno do algoritmo fosse aberto a todos, ele poderia acabar de forma gratuita.

 

Referência


Backlinks para Empresas