quarta-feira, 2 de setembro de 2015

Tecnologia, Lei e Sociedade (2015.2) (02/09): "Inteligência Artificial e a Ansiedade do Ser Humano sobre as Perspectivas de Mudança"

Leitura:
Musk, Wozniak and Hawking urge ban on warfare AI and autonomous weapons
Zittrain delivers chair lecture: ‘Love the Processor, Hate the Process’
[APR 2015] "LOVE THE PROCESSOR, HATE THE PROCESS: THE TEMPTATIONS OF CLEVER ALGORITHMS AND WHEN TO RESIST THEM"

Audiovisual:
Professor Jonathan Zittrain: Love the Processor, Hate the Process

17 comentários:

  1. A IA tem um potencial incrível para melhorar e facilitar nossa vida. Como visto nas palestras da semana passada, eu acho que nos temos que nós manter otimistas com relação as novas tecnologias, mas sempre tomando cuidado e analisando o uso que damos a elas.

    Na minha opinião as armas automáticas é algo que deve ser proibido, porque um erro de decisão numa arma é fatal, e decisões desse tipo tem que ser tomada por humanos que podem avaliar corretamente a situação e tomar decisões baseadas não só na racionalidade como também na moral e ética.

    Nesse ponto entra a questão fundamental sobre a tecnologia, se ela é "boa" ou "ruim" depende do uso que fazemos dela, por isso temos que tomar bastante cuidado e definir o que pode ser feito com tecnologia e o que não pode, por isso acho essencial discussões como essa apresentada sobre as armas automáticas na carta aberta.

    E ainda sobre a questão do uso da tecnologia, a palestra do professor Jonathan Zittrain reforça fortemente que a tecnologia pode ter usos errados e que devem ser limitados, sem abandonar a tecnologia.

    O desenvolvimento da tecnologia não é algo que deve ser temido, o que deve ser temido é o uso que damos a ela, e por isso temos que analisar sempre esse uso, e se ele não estiver adequado devemos limitar o uso da tecnologia de forma que seja usada apenas de forma adequada.

    ResponderExcluir
  2. A carta aberta dos cientistas sobre IA é o tipo de iniciativa que ajuda muito na aceitação e na quebra de objeções que a sociedade tenha em relação a esse tipo de pesquisa e desenvolvimento tecnológico, que na minha opinião, são inevitáveis. Esse tipo de ação deveria se tornar muito mais constante, e tentar ganhar o poder de propagação que, ideias tiradas de filmes ou de simples mentiras espalhadas por teóricos da conspiração, que é muito grande. Sem contar que instintivamente nós humanos temos a tendência a dar mais ouvidos a notícias de ameaças a nossa sobrevivência, sendo isso mais um motivo para esse tipo de iniciativa se tornar mais constante.

    A preocupação até genuína com a possibilidade de o desenvolvimento de IA acabar desembocando em uma corrida armamentista é, no meu ver, tornada sem sentido quando observamos outras tecnologias que trouxeram grandes avanços a humanidade e que acabaram também sendo usadas em guerras. Algumas até surgiram da área militar e vieram nos beneficiar depois. Carros, internet, tecnologias médicas, aviões, são só alguns dos exemplos disso.

    Outra coisa interessante foram algumas das perguntas que o Jonathan Zittrain fez ao público em sua palestra. Por exemplo as perguntas envolvendo os algoritmos do Facebook e do Google, se eles deveriam ser alterados ou não. Na minha opinião, não deveria ser mudado nada OBRIGATORIAMENTE. Se o Google e o Facebook quisessem mudar após receberem reclamações de usuários, tudo bem. As pessoas tem que lembrar que elas precisam assumir ao menos um pouco de responsabilidade, o que acontece menos hoje em dia. Qualquer coisa que acontece, as pessoas já vão chamar o Estado-babá para “brigar com o amiguinho que bateu neles”. Se a pessoa fez o cadastro no Facebook e marcou que estava ciente das normas de uso, mesmo sem ler, que ela assuma a responsabilidade por isso. Se ela também escolhe usar o Facebook ela deve ter consciência de que o que aparece no Feed de notícias é escolhido para aparecer ali por uma máquina. Sim, o Facebook e o Google tem muito poder quando tem posse dessas informações, mas nós demos tudo isso a eles tranquilamente, então paciência.

    Enfim, seja sobre o Google, Facebook ou até com a Microsoft com um Kinect que reconhece quantas pessoas tem na sala para cobrar mais pelo filme, creio que temos que lembrar que as empresas são privadas. Assim como elas não podem te obrigar a usar o serviço delas, ou pagar algo a eles (tipo o governo), você também não pode querer obrigá-los, através de processos e coisas do tipo a mudarem o serviço para ser exatamente do jeito que você quer. Não gostou do serviço? Não use, use o de outro. O serviço do concorrente não é bom, ou nem existe? Paciência, a vida é assim mesmo.

    ResponderExcluir
  3. Considero que tudo que ainda é desconhecido é natural termos medo, assim é com a IA, então é normal termos cautela ao desenvolver tal tecnologia sem saber os impactos que terão na sociedade, tome como analogia as cancelas de shoppings que se pensava que tiraria empregos das pessoas que faziam a transação de entrada e saida dos carros para maquinas automatizadas com um sistema de controle de entrada, mas se criou novos empregos para manutenção e monitorização desses sistemas e no fim acabou sendo quase a mesma coisa.

    Em relação a palestra assistida em aula, é de interesse ao direito se estudar sobre tais casos mencionados com mais profundidade e até onde é permitido a tecnologia ter impacto na sociedade, o que é constitucional e o que não é, como a era da internet em massa começou agora é um assunto a ser bastante estudado, e já vem sendo aplicado varias leis como crimes da internet e o marco civil da internet e também de se mencionar a lei Carolina Dieckmann.

    ResponderExcluir
  4. A IA tem muito potencial a ser desenvolvido. A história realmente mostra que quando se trata de guerra, existe um empenho muito maior em se desenvolver tecnologias, como citado em um dos comentários acima. No entanto isso é somente uma questão de foco no que se quer desenvolver. A cultura dos países, desde sempre foi de desenvolver novos meios de se proteger e atacar, tendo mais chances de ganhar uma guerra. Se todo esse investimento fosse voltado para pesquisa em IA, não para armas de guerra, mas sim em tecnologias para o bem da humanidade, não acho que seria afetado a "velociade" com que esse desenvolvimento ocorre.

    O que deve ser avaliado é que o impacto na forma que a guerra acontece pode ser alterado bruscamente, chegando a proporções inimagináveis. Os soldados temem pelas suas vidas, o que não aconteceria caso fosse uma guerra de robôs. É ingenuidade pensar que isso pouparia vida de soldados na guerra, pois esses robôs vão dar mais poder aos países mais ricos, enquanto os países mais pobres, serão mais massacrados do que já são, pois ao invés de a guerra ser pessoas contra pessoas, será robôs contra pessoas. Nós falamos muito no que pode acontecer no futuro, mas essa mudança já está acontecendo, como é o caso do uso de Drones na guerra.

    ResponderExcluir
  5. De fato é impossível imaginar o impacto que o estudo de uma nova tecnologia como a IA possa causar no mundo. Acredito que quando pensamos em IA vem um sentimento de medo que gera a seguinte dúvida “Será que uma maquina com uma IA bem projetada não pode ser melhor que um ser humano?” muito provavelmente a resposta será sim, pois uma IA não estaria tão sujeita a erros como um humano e olhando por esse lado é melhor investir em uma máquina que trabalha melhor e tem um custo mais baixo do que um humano que está sujeito a falhas e custa mais. Esse tipo de pensamento pode fazer com que a IA seja mais ameaçadora do que inovadora e exatamente por isso ela se torna palco de discussões, em quanto houver tempo assim digamos.
    Atualmente encontra-se desenfreada a forma como a tecnologia avança em busca de se tornar mais autônoma e a grande dúvida é saber se isso vai gerar algo positivo ou algo negativo para a maioria, mas devido a quantidade de pontos negativos a se considerar é normal que as pessoas tenham medo, até por que nem toda descoberta na história da humanidade foi utilizada para o bem do próprio homem, vide a descoberta da radiação, que apesar de trazer inúmeros pontos positivos, trouxe a ameaça da bomba atômica, e esse exemplo pode exemplificar como seria a vinda da IA, ela pode vir com grande avanços, mas também podem vir disfarçados grandes malefícios.

    ResponderExcluir
  6. É muito triste ver como estão investindo tanto em tecnologias de ponto com objetivos militares, pois, ao meu ver, a tecnologia devia ser utilizada para ajudar as pessoas como um todo e não exponenciar o poder de uma nação perante as outras. Por este fato é difícil saber se devemos comemorar os avanços tecnológicos que obtemos ao passar dos anos, pois à medida que avançamos em campos como a IA afim de obter por exemplo, uma casa inteligente, parte dessa tecnologia é utilizada para a fabricação de soldados-robôs autônomos, que além de serem utilizados para matar, podem acabar criando vitimas de erros técnicos.

    Acredito que o desenvolvimento tecnológico deve ser muito bem fiscalizado e restringir o seu uso. Uma pesquisa para intuitos militares por exemplo devia passar por um conjunto de regras, pois devemos remediar agora para não sofremos no futuro. Na palestra em questão vemos bem o problema da utilização da tecnologia de forma errada, e por isso, os governos deveriam começar a criar limitações, mas no âmbito militar fica difícil deixar essas fiscalizações nas maos dos governos, pois o avanço militar aumenta o poder do governo.

    ResponderExcluir
  7. Principalmente diante de guerras ao terror, onde praticamente tudo é justificado em nome da segurança nacional, eu me pergunto até que ponto um grupo de pessoas [ mesmo que cientistas renomados] seriam capazes de parar o "avanço" de tecnologias para a guera, ainda mais se elas podem ser aplicadas com a justificativa [não necessariamente correta ] de diminuir a perda de vida humanas - argumento que ser facilmente aceito pela população em geral [ principalmente com uma boa propaganda de guerra ].
    Em relação a mudanças no algoritmo de busca, dois fatores são interessantes:
    1. A ideia que já fomos/somos fortemente influenciados por eles ( propositalmente ou não). Quem sabe até uma AI já está nos influenciado! (talvez ficção científica, mas e se realmente já existir, nós saberiamos? ).
    2. Até que ponto estamos dispostos a permanecer a "neutralidade" dos algoritmos de buscas? Se for para diminuir injustiças? Se for pra salvar energia para um meio ambiente mais sustentável? Se for pra salvar vidas?
    E em relação essa "neutralidade", será que realmente ela é tão bela? Os donos do serviço não influenciam nos resultados? E o mais importante, saberiamos?
    Esses são os questionamentos que refletir e que gostaria de provocar reflexões.

    Att,

    Filipe Barbosa Lima

    ResponderExcluir
  8. Esse tema faz um ótimo link com tema do seminário anterior. Até que ponto é avanço tecnológico é bom para o ser humano? Acho muito promissor o investimos que está sendo feito no desenvolvimento de IA, mas é notável que esse desenvolvimento deve ser regulamentado. Sem controle, esses avanços tenderam a beneficiar apenas um grupo de pessoas ou sociedade, a quem tem maior poder aquisitivo para investir em armamento militar, e deixar a cabo do governo esse controle creio que não é a melhor opção.
    Trazer a sociedade mais próximo de discussões dessa temática é o que pode dar um rumo melhor a esses problemas, não é um problema simples de tomar decisões para resolve-lo. A carta aberta dos cientistas sobre IA reflete bem isso.

    ResponderExcluir
  9. Observo que, à medida que o ser humano luta pelo desenvolvimento de si mesmo, de um modo geral, é obrigado a levar em questão o quanto de poder ele entrega a máquina que será útil nesse processo. O ponto crítico é quando os projetos de IA tem avançado para o campo armamentista, o que, se não for bem administrado, será uma das principais causas para uma nova revolução mundial. É certo que a intervenção dos órgãos políticos se faz necessária, por mais que centros de pesquisas e empresas de renome acelerem o processo para a obetenção de resultados.
    De acordo com os argumentos apresentados por Musk e Stephen Hawking, sobre tecnologias de AI serem uma ameça global, outros estudiosos em contrapartida, avaliam grandes possibilidades de bom uso para equipamentos dotados de uma certa inteligência. O Reino compartilha da mesma visão e pretende continuar com esses estudos, mesmo enfrentando repressões nesse sentido.
    Ao meu ver, o que se deve levar como prioridade é como todas essas tecnologias impactam na resolução social, preservando a integridade política, sem maiores danos, nem pensa catastróficos, a população mundial. Obviamente, é mais que necessário o estabelecimento de limiares étnicos e políticos a respeito da aplicação dessas tecnologias em âmbito experimental.

    ResponderExcluir
  10. Apesar da Internet sem um objetivo social, ela já foi usada várias vezes para esse proporsito. Já é frequente casos de pessoas que dedicam uma parte da sua vida para ajudar outras em necessidade e a Internet facilitou essa interação. Pessoas podem ajudar necessitados do outro lado do mundo, como no caso do site que brasileiros fizeram para ajudar vítimas de tragédia. Mas esse mesmo meio de comunicação pode também ser usado para outras finalidades não sociais, como tráfico de crianças pelo mercado negro. Esse mesmo tipo de questão é levantado sobre inteliencia artificial.
    Vários estudiosos já discutiram a questão de que se a humindade evoluir muito na inteligência artificial, pode ser nossa maior ameaça existencial levando até a nossa extinção. Na minha opinião, acho que essa área deve sim ser explorada, não para criar outros meios de ganhar uma guerra e aniquilar uma nação, mas para razões sociais assim como a Internet pode ser usada. Temos exemplo de inteligência artificial ajudando pessoas deficientes ou o caso dos EUA veículos aéreos automáticos em busca de eliminar o terrorismo.
    A inteligência artificial está hoje na lista de ameaças reais à humanidade. Então ainda fica a incerteza de se a inteligência evoluir tanto a ponto de controlar a si mesma, assim como teme Stephen Hawking. Uma das soluções seria futuramente teremos meios de assegurar de que essa inteligência não se virará contra a raça humana.

    ResponderExcluir
  11. Como várias pessoas citaram acima, o problema não é o avanço da IA, mas sim a finalidade do seu avanço. Não vejo como um problema futuro, mas um que nos ronda a cada dia. Um exemplo de IA que pode ser usada contra a população são os drones usados pelo Estados Unidos na guerra no Oriente Médio. O grande problema é a transparência, o aceitamento do que o governo fala sobre, cabe a nós acreditar que a tecnologia está sendo usada para o bem, ou para cometer crimes humanitários. Essa reflexão me fez lembrar sobre a Agência Internacional de Energia Atômica, devotada exclusivamente aos usos pacíficos da energia atômica, onde a comunidade mundial se reúne para promover o uso pacífico da energia nuclear. Acho que algo assim deveria ser feito em relação à IA, órgão transparentes deveriam ser criados para fiscalizar o uso, porém essa ideia se esbarra na dificuldade de fiscalizar softwares.

    ResponderExcluir
  12. Nós estamos em uma época onde a IA em geral está começando a ter grande influencia em nossa vida, e essa influencia só tende a aumentar ao logo do tempo. Coisas como Smart houses, smart cities, smart cars, assistentes pessoais como a siri, ou a cortana da microsoft, a IA está aos poucos ganhando um destaque maior e indo para as mais variadas áreas da interação humana e muito provavelmente terá um impacto gigantesco nas nossas vidas, ambos para o bem e para o mal.

    A preocupação dos executivos e pesquisadores com o lado negativo da IA é algo extremamente importante, e que deveria sim ser um tópico a ser discutido com cautela. Neste momento, muito provavelmente vários governos diferentes estão procurando modos de melhorarem sua tecnologia bélica, e uma área que tem muito a oferecer negativamente nesse sentido é a IA, cada vez mais nos vemos a introdução de drones controlados automaticamente, e outras tecnologias que são exploradas por não existir ainda uma certa conscientização sobre o assunto.

    Na minha opinião, o problema desse tipo de tecnologia sendo aplicada em guerras, é que, maquinas não tem a consciência humana, e maquinas preparadas para a guerra não precisam de consciência humana. Elas são feitas com um objetivo, matar, elas não hesitam, elas não veem certo ou errado, elas não veem injustiça ou justiça, elas simplesmente obedecem uma ordem.

    Se na segunda guerra mundial, um Alemão foi capaz de influenciar toda uma nação a cometer um genocídio em massa, aplicando no caso de ele possuir maquinas controladas por inteligencia artificial a sua disposição, esse mesmo genocídio poderia se repetir com uma facilidade extremamente maior, pois você não precisa convencer milhares de soldados a brigar por um ideal, você só precisa dar uma ordem.

    Então, o foco não é impedir desenvolvimento de inteligencia artificial, mas sim estar atento as consequências do desenvolvimento dela.

    Breno Torres

    ResponderExcluir
  13. Os humanos tem um medo natural do desconhecido, e a inteligência artificial ainda é uma grande interrogação no domínio do nosso conhecimento. Tim Urban escreveu um artigo [1] bem interessante no assunto, num formato bem similar a palestra do doutor Zittrain. Ele faz questão de clarificar a diferença entre os tipos de inteligência artificial
    existentes. Primeiramente temos a específica, como aquela inteligência que joga xadrez muito bem, mas é só isso que ela faz. Temos também a inteligência artificial geral, que consegue fazer tudo que um humano consegue - desde racionalizar a resolução de um problema até pensar de forma abstrata. E finalmente existe a superinteligência, que vai muito além da capacidade do cérebro humano.

    A inteligência artificial específica está em todo lugar hoje em dia. Os nossos celulares possuem várias formas disso, como os caminhos gerados por uma aplicação de mapa, ou o filtro de spam do email. Nós não tememos esse tipo de aplicação de IA por que é possível ver claramente os limites desta, e o pior que ela consegue fazer é não funcionar ou dar um resultado errado. Não chegamos ainda num ponto em que temos uma IA geral, mas é nessa área que muito esforço está sendo concentrado. Em um nível imediato, isso assusta por que poderia ser usado de diversas formas, até fazendo os humanos redundantes em tarefas que exijam raciocínio, assim como a revolução industrial trouxe substitutos para trabalhos braçais. Porém nesse nível as versões artificiais do cérebro humano seriam ainda melhores, por poder contar com armazenamento de informação virtualmente infinito, durar mais e ser flexível, por exemplo. E finalmente, a IA superinteligente é especialmente assustadora pelo simples fato que não teríamos controle sobre o que ela poderia fazer, o que é tema de filmes e livros constantemente.

    Pessoalmente, eu acho que esse é o caminho natural que a humanidade deve seguir, e não podemos fazer nada para impedir. Só devemos tentar nos preparar para isso da melhor forma possível.

    [1] URBAN, T. The AI Revolution: Road to Superintelligence. Disponível em: . Acesso em: 19 nov. 2015.

    ResponderExcluir
  14. No começo da palestra, Zittrain demonstra um pouco da influência que a Internet pode causar na vida das pessoas. Empresas como Google e Facebook possuem o poder de influenciar as pessoas em certas decisões e até nos seus sentimentos. Um exemplo disso é um experimento feito pelo Facebook a fim de testar a mudança dos sentimentos das pessoas de acordo com o tipo das postagens vistas no seu news feed. Pessoas que viam mais postagens negativas tendiam a postar coisas mais negativas enquanto pessoas que viam mais postagens positivas, faziam posts mais positivos. Isso foi um caso bem polêmico e muitas pessoas ficaram indignadas com o fato do Facebook estar fazendo experimentos com manipulação emocional. Pra mim, esse experimento só foi uma prova do que foi dito por Zittrain no começo da palestra, grandes plataformas como o Facebook podem manipular as pessoas caso desejem. Apesar disso não ser uma grande novidade (redes de TV podem fazer o mesmo há bastante tempo), não deixa de ser algo preocupante.

    Agora, um pouco sobre IA especificamente, recentemente eu vi um filme bem interessante que se chama Ex Machina. Ele aborda justamente o ponto levantado por Bill Gates, Stephen Hawking, Elon Musk e etc, sobre como IA pode evoluir e ficar perigosa. Por mais que eu acredite que IA é algo maravilhoso e que ajuda e pode facilitar cada vez mais a vida das pessoas, eu também compartilho um pouco desse medo de até onde a superinteligência pode chegar.

    Sobre o experimento do facebook: http://www.theguardian.com/technology/2014/jun/29/facebook-users-emotions-news-feeds
    E o filme mencionado: http://www.imdb.com/title/tt0470752/

    ResponderExcluir
  15. 2015 foi ano de lançamento de um série de filmes e séries que abordam a inteligência artificial como, por exemplo, Chappie, Ex Machina e o seriado britânico Humans, todos muito bons. E todos questionando o impacto que uma inteligência artificial equiparável ou superior à humana teria sobre a humanidade.

    Na minha opinião, a singularidade tecnológica, evento onde inteligência artificial terá superado a inteligência humana, é inevitável. No entanto afirmar que máquinas terão consciência própria, como mostra o seriado Humans, é mais complicado visto que o próprio homem ainda não entende a "consciência" por completo.

    Ainda assim, uma máquina consciente de si mesma e do mundo não seria o problema. O problema seria a índole da máquina e a possibilidade dela ver o seu criador como uma ameaça para ela e para o mundo em que ela vive.

    ResponderExcluir
  16. Esse ano eu assisti o filme britanico "Transcendence" (https://pt.wikipedia.org/wiki/Transcendence) que aborda um pouco essa questao de como a humanidade poderia "perder o controle" sobre a tecnologia um dia e eu acho totalmente pertinente a reflexao e discussao do tema, entretanto, nao temos como negar todos os beneficios que a computacao e, sendo mais especifico, o estudo e aplicacao de tecnicas relacionadas a inteligencia computacional, nos viabilizou.
    Jonathan Zittrain em sua palestra mostrou alguns "principios" do mecanismo de busca da Google inicialmente e como isso mudou com o tempo.
    Algo que regule esse tipo de mudanca nao eh trivial e precisa ser bem pensado e discutido para garantir que, mesmo de forma bem intencionada, o usuario nao tenha de certa forma negado o acesso a informacao (e hoje em dia, infelizmente, de uma forma ou de outra, isso acontece).
    Como Pedro comentou acima, acredito que essa discussao eh parte do processo de preparacao para o inevitavel: vamos avancar!

    ResponderExcluir
  17. Acho que atualmente os benefícios trazidos pelo desenvolvimento de IA são maiores doque seus malefícios. Sim, temos que temer o seu uso militar, mas, a curto prazo, ela tem sido útil. Carros inteligentes, sistemas de recomendação...essas coisas tem ajudado bastante a humanidade hoje em dia.

    Mas vamos pensar um pouco mais a frente. A medida que essa area for se desenvolvendo, vamos acabar criando um ser superior ao ser humanos. Como já citado anteriormente por outras pessoas acima, vários escritores, cientistas tem essa preocupação: de criarmos algo que vai acabar nos matando.

    No filme Blade Runner[1], vamos um futuro muito triste e real, onde a humanidade criou um ser com capacidade de pensar por sir próprio (os replicantes) e esses começaram a matar os humanos por se acharem superiores. Chegou ao ponto até de serem banidos da terra por isso.

    Compartilho com oque disse outros colegas, que esse é o caminho natural a se seguir, so nos resta nos preparar pra isso. Para com pesquisas nessa area é simplesmente andar para trás.

    [1] http://www.imdb.com/title/tt0083658/

    ResponderExcluir