Executivo do Facebook: elegemos Trump e não devemos detê-lo em 2020


Em um memorando obtido por The New York Times e publicado publicamente um executivo do Facebook diz que a plataforma da empresa foi responsável por eleger o presidente Donald Trump em 2016, mas alertou os funcionários contra o uso do poder da empresa para impedir a reeleição de Trump em 2020.

o memorando, Andrew Bosworth, uma das vozes mais importantes da empresa, compartilhou algumas “ideias para 2020” com os funcionários. O memorando de Bosworth percorre anos dos escândalos de destaque da rede social, desde a interferência nas eleições russas até o Cambridge Analytica. Enquanto ele afirma que alguns dos “detalhes” que foram divulgados publicamente estão errados – ele questiona, por exemplo, quanta interferência russa afetou a opinião dos eleitores e chama o escândalo da Cambridge Analytica de “não-evento” – ele admite que “existe quase sempre alguma questão crítica ”subjacente aos relatórios que ele considera justos.

O memorando aponta para a eleição presidencial de 2016 como um ponto de virada na percepção pública do Facebook e admite que o Facebook foi responsável pela surpresa chocante de Trump. Bosworth diz que "não é fã de Trump", mas credita a estratégia digital da campanha Trump à vitória.

"Então o Facebook foi responsável por Donald Trump ser eleito?", Escreve Bosworth. “Acho que a resposta é sim, mas não pelas razões que alguém pensa. Ele não foi eleito por causa da Rússia, desinformação ou Cambridge Analytica. Ele foi eleito porque executou a melhor campanha de anúncios digitais que já vi de qualquer anunciante. Período. ”

Bosworth continua dizendo que a empresa não deve usar seu enorme alcance para bloquear a reeleição de Trump em 2020, comparando a idéia com O Senhor dos Anéis em que os personagens são brevemente considere tentar usar o anel de poder para fins justos. “Por mais tentador que seja usar as ferramentas disponíveis para mudar o resultado”, ele escreve, “estou confiante de que nunca devemos fazer isso ou nos tornaremos aquilo que tememos.”

está abaixo.

Pensamentos para 2020

A eleição de Donald Trump imediatamente colocou os holofotes no Facebook. Embora a intensidade e o foco desses holofotes possam ser injustos, acredito que não é injusto. O escrutínio é garantido, dada a nossa posição na sociedade como a mais proeminente de um novo meio. Eu acho que a maioria das críticas que vieram à luz foram válidas e representam áreas reais para servirmos melhor a nossa comunidade. Não gosto de expor nossas falhas, mas considero muito melhor do que a alternativa em que permanecemos ignorantes de nossas deficiências.

Uma armadilha em que às vezes vejo pessoas caindo é dispensar todo o feedback quando eles podem invalidar uma parte dele. Eu vejo isso com feedback pessoal e vejo isso acontecendo com a cobertura da mídia. A imprensa geralmente erra tantos detalhes que pode ser difícil confiar na veracidade de suas conclusões. Dispensar o todo por causa de falhas em partes é um erro. A mídia tem informações limitadas para trabalhar (por nosso próprio projeto!) E às vezes elas entendem tudo errado, mas quase sempre há um problema crítico que os motivou a escrever o que precisamos entender.

Vale a pena examinar as eleições de 2016 que colocaram em movimento essa cadeia de eventos. Eu estava administrando nossa organização de anúncios no momento da eleição e tinha estado nos quatro anos anteriores (e um ano depois). Vale lembrar a todos que a interferência russa era real, mas na maioria das vezes não era feita por meio de publicidade. US $ 100.000 em anúncios no Facebook podem ser uma ferramenta poderosa, mas não podem comprar uma eleição americana, especialmente quando os próprios candidatos estão colocando várias ordens de magnitude a mais na mesma plataforma (sem mencionar outras plataformas).

Em vez disso, os russos trabalharam para explorar as divisões existentes no público americano, por exemplo, organizando eventos de protesto de Black Lives Matter e Blue Lives Matter na mesma cidade no mesmo dia. As pessoas que aparecem nesses eventos eram reais, mesmo que o coordenador do evento não fosse. Da mesma forma, os grupos de americanos alimentados com conteúdo partidário eram reais, mesmo que aqueles que os alimentavam não fossem. O alcance orgânico que eles conseguiram parece muito grande em termos absolutos e, infelizmente, os humanos são ruins em contextualizar grandes números. Qualquer que seja o alcance que eles conseguiram, representa uma fração infinitesimal do conteúdo geral que as pessoas viram no mesmo período de tempo e certamente ao longo de uma eleição em todos os meios de comunicação.

Portanto, a maioria das informações que circulam por todo o mundo acredita-se que não são precisas. Mas quem se importa? Certamente é verdade que deveríamos ter mais cuidado com o papel que o conteúdo pago e orgânico desempenhava na democracia e mais protetor. Em relação à interferência estrangeira, o Facebook fez um progresso material e, embora nunca possamos eliminá-lo completamente, não espero que seja um grande problema para 2020.

A desinformação também era real e relacionada, mas não era a mesma que a interferência russa. Os russos podem ter usado informações erradas juntamente com mensagens partidárias reais em suas campanhas, mas a principal fonte de informações erradas foi economicamente motivada. Pessoas sem nenhum interesse político perceberam que podiam direcionar tráfego para sites carregados de anúncios, criando manchetes falsas e o fizeram para ganhar dinheiro. Eles podem ser descritos de maneira mais adequada como fraudes que influenciam o viés de confirmação ou a teoria da conspiração. Na minha opinião, essa é outra área em que as críticas são merecidas. Essa também é uma área em que fizemos um progresso dramático e não esperamos que seja uma questão importante para 2020.

Vale a pena notar, como é relevante no momento atual, que a desinformação dos próprios candidatos não foi considerada uma grande falha de publicidade política no FB em 2016, mesmo que nossa política fosse a mesma que é agora. Essas políticas são frequentemente cobertas pela imprensa no contexto de um motivo de lucro. Essa é uma área em que posso garantir com segurança que os críticos estão errados. A execução de nossos negócios de anúncios há algum tempo não é um fator importante quando discutimos a coisa certa a fazer. No entanto, dado que essas conversas são privadas, acho que todos podemos concordar que a imprensa pode ser perdoada por ter chegado a essa conclusão. Talvez possamos fazer um trabalho melhor expondo o custo real desses erros para deixar claro que a maximização da receita exigiria uma estratégia completamente diferente.

O Cambridge Analytica é um dos casos mais agudos em que consigo pensar onde os detalhes estão quase todos errados, mas acho que o escrutínio está amplamente correto. O Facebook lançou publicamente nossa plataforma de desenvolvedor em 2012 em um ambiente que nos examina principalmente para manter os dados para nós mesmos. Todos que adicionaram um aplicativo receberam uma solicitação explicando quais informações teriam acesso e, no momento em que incluíam informações de amigos. Isso pode parecer loucura em um contexto de 2020, mas recebeu muitos elogios na época. No entanto, o único mecanismo que tínhamos para manter os dados seguros depois que eles eram compartilhados eram ameaças legais que, no final das contas, não representavam muito para empresas que tinham muito pouco a perder. A plataforma não construiu o valor que esperávamos para nossos consumidores e fechamos essa forma em 2014.

A empresa Cambridge Analytica começou executando pesquisas no Facebook para obter informações sobre pessoas. Posteriormente, tornou-se uma empresa de publicidade, parte do nosso programa de parceiros de marketing no Facebook, que outras empresas poderiam contratar para exibir seus anúncios. Sua reivindicação à fama era o alvo psicográfico. Era puro óleo de cobra e nós sabíamos disso; seus anúncios tiveram um desempenho melhor do que qualquer outro parceiro de marketing (e, em muitos casos, um desempenho pior). Pessoalmente, lamento deixá-los permanecer no programa FMP apenas por esse motivo. No entanto, na época, pensávamos que eles eram apenas outra empresa tentando encontrar um ângulo para se promover e presumir que o desempenho ruim acabaria perdendo para eles seus clientes. Não tínhamos idéia de que eles estavam comprando um antigo conjunto de dados do Facebook que deveriam ter excluído (e certificado para nós por escrito que possuíam).

Quando Trump venceu, a Cambridge Analytica tentou levar o crédito para que eles voltassem ao nosso radar, mas apenas por fazerem besteiras sobre sua própria importância. Fiquei feliz quando o gerente de campanha do Trump, Brad Parscale, os chamou por isso. Mais tarde, descobrimos por jornalistas que eles nunca haviam excluído o banco de dados e, em vez disso, haviam feito promessas elaboradas sobre seu poder de publicidade. Nossa equipe de comunicação decidiu que seria melhor ficar à frente dos jornalistas e retirá-los da plataforma. Este foi um grande erro. Não era apenas uma forma ruim (irritando os jornalistas de maneira justa), mas também estávamos travando a batalha errada. Queríamos deixar claro que não havia sido uma violação de dados (o que, para ser justo conosco, absolutamente não era), mas a verdadeira preocupação era a existência do conjunto de dados, não importa como isso acontecesse. Também enviamos cartas legais aos jornalistas, aconselhando-os a não usar o termo "culatra", que foi recebido normalmente pelo NYT (que concordou) e agressivamente pelo The Guardian (que seguiu adiante com a terminologia errada, furioso com a carta), apesar de sendo uma prática relativamente comum, me disseram.

Em termos práticos, o Cambridge Analytica é um total não evento. Eles eram vendedores de óleo de cobra. As ferramentas que eles usaram não funcionaram e a escala em que eles foram usados ​​não era significativa. Toda reivindicação que eles fizeram sobre si mesmos é lixo. Dados do tipo que eles possuíam não são tão valiosos para ficar com, e pior, degradam rapidamente, tanto que são efetivamente inúteis em 12 a 18 meses. De fato, o Escritório de Comissários da Informação do Reino Unido (OIC) apreendeu todo o equipamento da Cambridge Analytica e descobriu que não havia dados de nenhum cidadão do Reino Unido! Então, certamente, este é um lugar onde podemos ignorar a imprensa, certo? Não. A plataforma foi tão ruim que os riscos associados estavam prestes a vir à tona. O fato de encerrá-lo em 2014 e nunca prestar atenção ao quão ruim foi faz com que esse escrutínio se justifique em minha opinião, mesmo que seja mal orientado.

Então, o Facebook foi responsável pela eleição de Donald Trump? Eu acho que a resposta é sim, mas não pelas razões que alguém pensa. Ele não foi eleito por causa da Rússia, desinformação ou Cambridge Analytica. Ele foi eleito porque executou a melhor campanha de anúncios digitais que já vi de qualquer anunciante. Período.

Para ser claro, não sou fã de Trump. Eu doei o máximo para Hillary. Após sua eleição, escrevi um post sobre os apoiadores de Trump que me disseram que os colegas que o apoiaram se sentiram inseguros perto de mim (lamento esse post e os apaguei logo depois).

Mas Parscale e Trump fizeram um trabalho inacreditável. Eles não estavam passando informações erradas ou falsas. Eles não estavam segmentando ou dizendo coisas diferentes para pessoas diferentes. Eles apenas usaram as ferramentas que tínhamos para mostrar o criativo certo para cada pessoa. O uso de públicos-alvo personalizados, vídeo, comércio eletrônico e novos criativos continua sendo a marca d'água das campanhas de anúncios digitais na minha opinião.

Isso me leva ao momento atual, em que mantivemos as mesmas políticas de anúncios. Ocorre-me que muito bem pode levar ao mesmo resultado. Como liberal comprometido, sinto-me desesperadamente querendo puxar qualquer alavanca à minha disposição para evitar o mesmo resultado. Então, o que fica na minha mão?

Eu me pego pensando no Senhor dos Anéis neste momento. Especificamente, quando Frodo oferece o anel a Galadrial e ela imagina usar o poder com retidão, a princípio, mas sabe que acabará por corrompê-la. Por mais tentador que seja usar as ferramentas disponíveis para mudar o resultado, estou confiante de que nunca devemos fazer isso ou nos tornaremos aquilo que tememos.

O filósofo John Rawls argumentou que a única maneira moral de decidir algo é remover-se inteiramente das especificidades de qualquer pessoa envolvida, por trás do chamado "Véu da Ignorância". Essa é a ferramenta que me leva a acreditar em programas liberais do governo, como assistência médica universal, expansão dos programas habitacionais e promoção dos direitos civis. É também a ferramenta que me impede de limitar o alcance das publicações que conquistaram seu público, por mais desagradável que seja o seu conteúdo para mim e até para a filosofia moral que tanto prezo.

Isso não significa que não há linha. Coisas como incitação à violência, supressão de eleitores e mais são coisas que a mesma filosofia moral me permitiria descartar com segurança. Mas acho que meus colegas liberais também são um pouco liberais quando se trata de chamar as pessoas de nazistas.

Se não queremos odiar políticos fraudadores, não devemos elegê-los. Se eles estão sendo eleitos, temos que conquistar corações e mentes. Se mudarmos os resultados sem conquistar a mente das pessoas que serão governadas, teremos apenas uma democracia no nome. Se limitarmos a quais informações as pessoas têm acesso e o que elas podem dizer, não teremos nenhuma democracia.

Essa conversa geralmente dispara o alarme em torno das bolhas de filtro, mas esse é um mito fácil de dissipar. Pergunte a si mesmo quantos jornais e programas de notícias as pessoas leem / assistem antes da Internet. Se você adivinhou "um e um", em média, está certo, e se adivinhou que aqueles estavam ideologicamente alinhados com eles, está certo novamente. A internet os expõe a muito mais conteúdo de outras fontes (26% a mais no Facebook, de acordo com nossa pesquisa). Este é um que todo mundo erra.

O foco nas bolhas de filtro faz com que as pessoas percam o verdadeiro desastre que é a polarização. O que acontece quando você vê 26% mais conteúdo de pessoas com as quais não concorda? Isso ajuda a simpatizar com eles, como todo mundo está sugerindo? Não. Isso faz você não gostar deles ainda mais. Isso também é fácil de provar com um experimento mental: seja qual for sua inclinação política, pense em uma publicação do outro lado que você despreza. Quando você lê um artigo desse canal, talvez compartilhado por um tio ou sobrinho, isso faz você repensar seus valores? Ou isso faz você recuar ainda mais na convicção de sua própria correção? Se você respondeu ao primeiro, parabéns, você é uma pessoa melhor do que eu. Toda vez que leio algo do Breitbart, fico 10% mais liberal.

O que tudo isso diz sobre a natureza das recompensas algorítmicas? Todo mundo aponta para o conteúdo de 0,1% como sendo extremamente polarizado, mas quão acentuadas são as curvas? Como são os 1% ou 5% melhores? E qual é o alcance real dessas curvas quando comparado a outro conteúdo? Eu acho que o pedido de transparência algorítmica às vezes pode ser exagerado, mas ser mais transparente sobre esse tipo de dados provavelmente seria saudável.

O que eu espero que as pessoas descubram é que os algoritmos estão expondo principalmente os desejos da própria humanidade, para melhor ou para pior. Este é um problema de açúcar, sal, gordura. O livro com esse nome conta uma história ostensivamente sobre comida, mas na realidade sobre a eficácia limitada do paternalismo corporativo. Há um tempo atrás, a Kraft foods tinha um líder que tentava reduzir o açúcar que vendia no interesse da saúde do consumidor. Mas os clientes queriam açúcar. Então, em vez disso, ele acabou reduzindo a participação de mercado da Kraft. Os resultados de saúde não melhoraram. Aquele CEO perdeu o emprego. O novo CEO introduziu Oreos quádruplo de pelúcia e a empresa voltou à graça. Dar boas ferramentas às pessoas para tomar suas próprias decisões é bom, mas tentar forçá-las raramente funciona (para elas ou para você).

Nesses momentos, as pessoas gostam de sugerir que nossos consumidores realmente não têm livre arbítrio. As pessoas comparam as mídias sociais à nicotina. Acho isso muito ofensivo, não para mim, mas para os viciados. Vi membros da família lutando contra o alcoolismo e colegas lutando contra opióides. Sei que há uma batalha pela terminologia do vício, mas sou do lado firme dos neurocientistas. Ainda assim, embora o Facebook possa não ser nicotina, acho que provavelmente é como açúcar. O açúcar é delicioso e para a maioria de nós existe um lugar especial em nossas vidas. Mas como todas as coisas, ele se beneficia da moderação.

No final do dia, somos forçados a perguntar que responsabilidade os indivíduos têm por si mesmos. Separe as substâncias que alteram diretamente nossa neuroquímica de maneira não natural. Torne os custos e as compensações o mais transparentes possível. Além disso, cada um de nós deve assumir a responsabilidade por si mesmo. Se eu quero comer açúcar e morrer uma morte prematura, é uma posição válida. Meu avô adotou essa postura em relação ao bacon e eu o admirava por isso. E a mídia social provavelmente é muito menos fatal que o bacon.

Para completar esse ensaio incomumente longo e tortuoso, eu queria começar uma discussão sobre quais lições as pessoas estão tirando da cobertura da imprensa. Minha opinião é que estávamos atrasados ​​em segurança de dados, desinformação e interferência estrangeira. Precisamos nos antecipar à polarização e à transparência algorítmica. Quais são os outros grandes tópicos que as pessoas estão vendo e onde estamos?



Source link



Os comentários estão desativados.