quarta-feira, 13 de setembro de 2017

Tecnologia, Lei e Sociedade (2017.2) (13/09): "Direitos e Liberdades num Mundo Automatizado"

Leitura:
Elon Musk says AI could lead to third world war
AI Now
Putin says the nation that leads in AI ‘will be the ruler of the world’

Audiovisual:
AI Now 2017 - Public Symposium
Panel Q&A: Rights & Liberties | AI Now 2017
Panel: Rights and Liberties in an Automated World | AI Now 2017
AI Now 2017 - Experts Workshop
Elon Musk and Bill Gates talk about artificial intelligence future possibilities

8 comentários:

  1. Acredito que AI seja o futuro da humanidade. Contudo, seu desenvolvimento irá, inevitavelmente, esbarrar em complexas questões éticas. Como estas questões podem ser solucionadas é uma pergunta complexa até mesmo quando enfrentada para humanos. Mas acredito que isto não irá parar o desenvolvimento destas tecnologias.

    ResponderExcluir
  2. Quanto a AI em armas eu acho que não só deveria se preocupar em proibir elas, mas já deixar decidido com as sansões a quem usa-las vão funcionar. Proibir por si só de nunca funciona. Sem contar que esse tipo de coisa eu vejo voltando-se contra programadores com facilidade.
    Se uma maquina mata alguem quem é o culpado? Quem fez a maquina? Quem programou ela? O dono da maquina? Eu consigo imaginar facilmente no futuro um programador sendo preso por ter feito uma interface de aprendizado de maquina que foi usada, sem nem mesmo ele saber, em algo do genero e ele sendo punido por isso.
    Fora isso a intenção de governos usarem AI em maquinas é clara: lavar as mãos deles das responsabiliades. "Foi decisão da maquina" ou foi "um erro de programação" provavelmente vai ser usado como desculpa no futuro.

    ResponderExcluir
  3. Um ponto importante a destacar é a perca de empregos futuros: qualquer tipo de emprego que trabalhe com tarefas frequentes e volumosas será realizado por IA futuramente. E o grande responsável por essa ascensão que IA vem tendo ultimamente é o conceito de Machine Learning (permite que a máquina aprenda com dados e imite o comportamento humano), que começou a ser usada já na década de 90 substituindo empregos como avaliar créditos em banco e separar correspondência por CEP`s.

    Em contraponto a isso, IA ainda é muito fraco quando se trata de lidar com novas situações. Ou seja, empregos que exigem criatividade e inovação ainda estão muito longe de serem substituídos pelas máquinas.

    ResponderExcluir
  4. Já podemos ver as oportunidades e aplicações que a IA vem desempenhando em diversos campos e seus benefícios. E ainda acho que ainda estamos distantes de um cenário pós-apocalíptico de filmes de ficção e acho improvável (não impossível) os seres humano serem subjugado pelas máquinas.
    Já mais a frente quanto ao cenário de guerra com uso de IA acredito que só irá levar a serio a questão dos perigos que a IA pode causar depois de um incidente sério com alguém importante ou uma catástrofe pra só assim eles aplicarem resoluções acerca do uso de ferramentas autônomas.

    ResponderExcluir
  5. Ainda este ano, saiu em uma reportagem no canal globo news com a seguinte manchete: "Algoritmos que determinam a pena de presos se tornaram preconceituosos". Na reportagem foi explicado que o algoritmo não sabia, de uma maneira direta, qual era a raça do preso mas que através de certas perguntas como "quantas vezes já foi preso?" ou "alguém na sua família foi preso?" acabava chegando indiretamente a minorias étnicas. Primeiramente, a manchete me pareceu sensacionalista e durante a reportagem, mais uma vez, percebi o despreparo dos jornalistas ao discutir assuntos relacionados a TI. Segundo, para mim, o software não se tornou preconceituoso nem foi indevidamente desenvolvido. Na verdade, o software está apenas refletindo uma triste realidade, que é, as minorias étnicas são maioria nos presídios. Cabe a nós decidirmos se queremos mudar essa realidade ou mascarar os resultados do software para que pareçam mais amigáveis e politicamente corretos.

    ResponderExcluir
  6. Buscando mecanismos ou dispositivos computacionais
    que possuam ou multipliquem a capacidade de raciocinar do ser humano, a inteligência artificial se apresenta sendo um ramo da computação que objetiva isso.
    A ideia é fazer com que as máquinas cheguem o mais próximo possível de ações humanas que são consideradas inteligentes.Mas até que ponto isso poderia ser algo construtivo? E se no futuro as máquinas fossem mais "inteligentes" que os homens ? Qual seria o preço que a humanidade teria que pagar?

    ResponderExcluir
  7. Um comentário interessante em um dos vídeos foi que um dos problemas de AI não é exatamente o surgimento de novas ameaças, mas sim a amplificação de injustiças já existentes. Nós ainda vivemos em um mundo cheio de preconceitos, explícitos ou ocultos. Se a ciência realmente almejar que as máquinas "pensem como humanos" acredito que haja um risco imenso de as coisas darem errado, como já aconteceram com "amostras" de AI que geraram robôs preconceituosos nas redes sociais. É necessário encontrar uma forma de fazer com que as máquinas "pensem melhor que os humanos" e evitar replicar essas falhas no pensamento coletivo da nossa sociedade.

    ResponderExcluir
  8. os robôs inteligentes são a imagem de quem os criou, seria injusto acusa-los de preconceito, ou de qualquer outro crime. Em relação a tecnologia, eu acho que ainda estamos longe de alcançar um nível de processamento que bata com a ideia de AI ao ponto de vista de comparação com um humano.Quanto ao uso da AI no mundo, acho que é inevitável, já que esse tipo de tecnologia será mais eficiente e consequentemente acabará abrangendo áreas que não eram cobertas antes, e sua periculosidade vai depender de que ponto (em termos técnicos) a tecnologia se desenvolveu.

    ResponderExcluir