quarta-feira, 31 de outubro de 2018

Tecnologia, Lei e Sociedade (2018.2) (31/10): "Plataformas, Política, e Poder: Moldando a Internet"

Leitura:
Improving moderation
Platforms Are Not Intermediaries

Audiovisual:
Custodians of the Internet: Tarleton Gillespie at #CSMIT2018
Databite No. 114: Mike Ananny and Tarleton Gillespie in conversation with Kate Klonick
Platforms, Politics, and Power: Understanding and Shaping the Internet in 2018
re:publica 2018 – Rebecca MacKinnon: Building a sustainable information ecosystem for human ...

7 comentários:

  1. Paulo Renato Barbosa da Silva3 de novembro de 2018 às 17:59

    Belíssima iniciativa do Berkman Klein Center em manter um espaço aberto ao debate e maneiras de melhorar a internet de uma forma multidisciplinar, como exemplo vemos a popularização do creative commons nascido no Berkman Klein. Uma questão levantada que me chamou muito a atenção, foi quando Zittrain sugere que os desenvolvedores deveriam se preocupar muitos mais com os impactos de suas criações. A preocupação central se dá em popularizar o que fez e tornar o produto lucrativo, quando deveria se pensar no impacto social e ético que o que foi desenvolvido pode causar.

    ResponderExcluir
  2. Como mencionado em "Platforms Are Not Intermediaries", é complicado a inversão de valores e responsabilidades que a sociedade empregou nas plataformas de conteúdo que existem hoje em dia, mas com as recentes revelações de decisões tomadas por essas plataformas a sociedade está começando a reavaliar como a internet é organizada como um todo.

    Concordo com a Rebecca MacKinnon, que na palestra "Building a sustainable information ecosystem for human rights and democracy" explica que é necessário governância, mas de que esta mesma governância seja transparente e aberta à participação da sociedade, e como ela mesmo aborda, assim como o governo tem o dever de proteger os direitos humanos e as empresas privadas tem o dever de respeitar estes mesmos direitos, tal instituição seria uma ótima forma de formalizar quem seria responsável por ações que ameaçam tais direitos, sejam empresas, governos ou indivíduos.

    ResponderExcluir
  3. Esse artigo de Tarleton Gillespie está mais para um artigo a favor da censura travestida de moderação de conteúdo. Isso por que em nenhum momento ele deu exemplos de conteúdo que precisam ser moderados pelas empresas das mídias sociais.

    Ele critica o poder de estabelecer e reforçar os limites do discurso público apropriado para empresas privadas, mas ele se esquece que as autoridades policiais e jurídicas atuam quando recebem denúncias de materiais impróprios nas redes sociais como pornografia infantil, venda de drogas, venda de crianças, maus tratos de idoso, crianças e animais. E essas mesmas autoridades encontram os responsáveis pela divulgação desse material, prendem os responsáveis e retiram do ar esses conteúdos impróprios.

    As mídias sociais na verdade conseguiram cumprir suas promessas como participação aberta de debates publicos, informaçao livre, liberdade de expressao para todos e a possibilidade de conhecer novas pessoas e reencontrar amigos e conhecidos antigos.

    Tarleton esquece que quando ocorrem censuras ou limitação de interacao dos canais entre usuarios nas redes sociais como Youtube, Twitter, Facebook e Google, por exemplo, existem pelo menos tres motivações para tais atos: juridica, financeira ou ideologica.
    A motivação juridica ocorre através de mandados expedidos por juizes ou delegados para o cumprimento de um lei ou de um caso em particular, mas que é do interesse publico (estão cumprindo suas obrigaçoes em seu cargos).

    https://exame.abril.com.br/brasil/justica-manda-facebook-liberar-dados-de-perfis-com-fotos-intimas/

    https://tefenews.com.br/politica/justica-manda-excluir-das-redes-conteudo-falso-contra-wilson-lima.html




    A motivação financeira está relacionada a quando a mídia social pode perder recursos de um determinado investidor, como o governo, caso a empresa não censure o conteúdo determinado pelo seu cliente. Geralmente este tipo de censura não é explícita (EXTINGUIR CANAL TAL) pois pode chamar a atenção pública. Geralmente, a mídia social usá a justificativa de 'DEFENDER A DEMOCRACIA E OS DIREITOS HUMANOS' ou "COMBATER AS FAKE NEWS". A tomada de ações por parte da empresa não é repentina. Ela leva certo tempo para ser implementada.

    https://www.cartacapital.com.br/blogs/midiatico/dilma-anuncia-parceria-com-o-facebook-412.html

    https://oglobo.globo.com/brasil/facebook-divulga-lista-de-paginas-excluidas-em-julho-por-desinformacao-22954480


    A ideologia é mais explicita quando o moderador da mídia social - não necessariamente sendo o dono da empresa - incomodado com uma opinião diferente da que sua ideologia têm ou que afronte a sua respectiva ideologia. Geralmente, este tipo de censura ocorre de maneira repentina usando como justificativa alguma cláusula do contrato - (que é ambigua e/ou genérica - que pode ter mais de um significado)- com a mídia social: DEFENDER OS DIREITOS HUMANOS.


    https://renovamidia.com.br/dono-twitter-admite-rede-social-esquerda/


    https://www.opovo.com.br/noticias/brasil/2018/08/usuarios-acusam-twitter-de-restringir-publicacoes-e-acesso-de-perfis-l.html

    ResponderExcluir
  4. Nos tempos recentes, várias plataformas tiveram criticas direcionadas à manutenção de dados dos usuários. Como foi o caso do Facebook no Reino Unido. O Reino Unido multou o Facebook no valor máximo (500 mil libras) por conta do escândalo com a Cambridge Analytica. Nessa situação, a Cambridge Analytica obteve os dados de mais de 87 milhões de usuários da rede social. Essa obtenção possibilitou que o pesquisador Aleksandr Kogan coletou dados que foram usados de forma irregular nas eleições de 2016 dos Estados Unidos.

    A questão é que com o crescimento das tecnologias de redes sociais e com a maior integração dessas redes na vida das pessoas faz com que essas empresas possuam uma quantidade muito grande de informações sobre uma quantidade ainda maior de usuários. É necessário que plataformas como essas tenham certo tipo de responsabilidade sobre esses dados, de forma que devam protegê-los e evitar que os mesmos sejam utilizados de maneira irregular, como foi no caso do Facebook mencionado acima.

    ResponderExcluir
    Respostas
    1. Concordo com Lucas. Acho que, com esse novo acordo de usuario que o facebook propôs, as parcerias ficarão mais claras, pois antes só sabíamos que as informações que nós dávamos aos sites eram vendidas para alguém, não tinhámos ideia quem eram os grandes que compravam. Hoje, depois de todo esse "auê", os acordos explicitam melhor onde os dados que damos podem cair.

      Excluir
  5. Na minha opinião, com o desenvolvimento das tecnologias, é inevitável a quantidade crescente de dados que plataformas digitais vão conter sobre seus usuários. Nem vejo mais a tecnologia em si como o maior desafio para essas grandes empresas/starups, e sim, como eles vão gerenciar a grande quantidade de informação retida por milhões de usuários diariamente. Por esta razão, é necessário um controle e que seja feito com grande responsabilidade, transparência e aberta a discussão para a população. Dessa maneira, existiria um entendimento melhor por parte dos usuários do que está sendo feito com os dados e seria mais fácil de responsabilizar alguma parte por ações indevidas.

    ResponderExcluir
  6. Estamos numa situação em que nosso entendimento não está conseguindo acompanhar a velocidade em que as tecnologias como redes sociais estão evoluindo. Porém, como Gillepsie sabiamente pontua, o problema da moderação na internet não é novo: Desde a criação da internet com jogos multiplayer online, forums, dentre outros. Eu, como alguém que já participou de moderação de forums, acredito ser indispensável a moderação de um ambiente virtual, ou não será possível criar uma comunidade saudável. Acredito que os problemas hoje em dia tem se mostrado piores por que há uma adoção massiva do grande público, público esse que muitas vezes cai no buraco da desinformação. Acredito que a incitação de debates sobre o tema é o primeiro passo para encontrar a solução nesse caminho, mas o problema que deve ser atacado agora é a falta de informação dos usuários, pois caso o controle seja passado para a mão do usuário e o mesmo não souber o que isso significa, a ação não terá tanto efeito.

    ResponderExcluir