quarta-feira, 24 de agosto de 2016

"Tecnologia, Lei e Sociedade" (2016.2): "Tecnologia, Crescimento Exponencial, e a Singularidade"

Leitura:
The Law of Accelerating Returns
Technological singularity
Why Tech Is Accelerating
Forget ideology, liberal democracy’s newest threats come from technology and bioscience

Audiovisual:
Dr Peter Diamandis at Creative Innovation 2015 (Ci2015) - "From Linear to Exponential Growth"
Singularity is Near! [Full Documentary] - Michio Kaku | Ray Kurzweil
Ray Kurzweil Neil deGrasse Tyson Predictions

15 comentários:

  1. Singularidade é, no contexto da física, um termo que foi usado inicialmente para definir o que veio a se tornar o universo antes da ocorrência do Big Bang. A engenharia usou o termo singularidade na Mecânica para descrever uma configuração com sequência não determinística, e por consequência, imprevisível. Já a singularidade tecnológica diz respeito a um momento imaginado por parte da comunidade científica que estuda o futuro da tecnologia em que uma superinteligência artificial for criada. De certa forma, essa definição se relaciona com a primeira apresentada, porque se trata do início da evolução tecnológica que independerá dos esforços humanos. Ela também se relaciona com a segunda definição apresentada, porque se estima que o resultado dessa reação em cadeia seja imprevisível.
    A singularidade é muitas vezes retratada em obras de ficção científica, ainda que não exista referência ao termo nas mesmas. Em muitas dessas obras, esse momento é visto como a derrocada da raça humana, mas algumas exploram o surgimento de uma segunda “espécie” como um evento majoritariamente benéfico à nossa espécie.
    O fato de a singularidade estar relacionada a uma configuração com futuro imprevisível faz com que a comunidade que estuda o futuro da tecnologia fique bem dividida em inúmeros aspectos relacionados ao tema. A singularidade será, para alguns, algo instantâneo, um marco histórico, simbolizado por apenas um evento (como a criação de um agente superinteligente, por exemplo). Para outros, se trata de um conjunto de eventos, ocorrendo diferentes singularidades positivas em cada cenário. Otimismo e pessimismo também tem forte ligação com o tema, pois se alguns não veem motivo para se sentir ameaçado pela ocorrência desse evento, outros pedem que a comunidade científica tenha cautela com seus avanços, uma vez que a singularidade pode representar uma perda de controle.
    O debate sobre o que aconteceria após a singularidade tecnológica é intenso, mas muitas vezes fútil. Se de fato a ocorrência de uma singularidade representar a criação de uma configuração de subsequência imprevisível para nós, o único jeito de adquirir informação sobre a mesma é experienciando-a.
    Outro debate comum ao tema é se a singularidade tecnológica de fato acontecerá. Céticos desacreditam na possibilidade de inteligência artificial que possa superar a inteligência de seu criador, vendo essa ocorrência como um paradoxo. Alguns levantam limitações físicas como a falha na teoria da singularidade tecnológica, enquanto outros apenas discordam da premissa do desenvolvimento exponencial positivo.
    É minha opinião que ambos os debates tem como sua maior utilidade a nossa conscientização da possibilidade de uma singularidade, mas mesmo os mais otimistas em suas previsões nos colocam a, pelo menos, 10 anos de distância de uma singularidade positiva. E essa distância temporal da tecnologia dá espaço para a existência de muitas dúvidas acerca do tema. Com o passar do tempo, a aproximação ou não de uma singularidade enriquecerá o debate, uma vez que teremos vozes melhor informadas.

    ResponderExcluir
  2. Acredito que a singularidade no âmbito tecnológico está fadada ao sucesso, eventualmente, pode ser daqui a 50, 100, mil ou mais anos... No entanto, acho que existe uma complexidade subestimada da "inteligência orgânica", ou uma superestima dos nosso conhecimento. A forma como o cérebro (mesmo os mais e simples) e conceitos associados (sentimento, consciência) levaram milhões de anos para se formar, claro que a inteligência artificial não será criada da mesmo forma, mas mesmo com tantos estudos de como o cérebro funciona continuamos com muita coisas a entender. Talvez a singularidade utilize algo que nem conhecemos, que funcione totalmente diferente de como o cérebro humano (o mais avançados que conhecemos hoje). Talvez seja mais simples do que podemos imaginar, ou não.... Talvez precise de alguma tecnologia, conceito ou elemento que ainda nem imaginamos que poderia existir.

    ResponderExcluir
    Respostas
    1. Bom ponto sobre diferentes tipos de inteligencia. A existência de uma inteligencia que rode em outro hardware além do cérebro pode muito bem levar à criação de outros tipo de cognição além do que conhecemos atualmente da mente humana. Seria muita prepotência assumir que qualquer nova inteligencia que surgir seria idêntica(ou mesmo parecida com) a nossa, e precisamos manter nossas mentes abertas para esses novos tipos de percepção.

      Excluir
  3. Em minha opinião é aceitável e interessante a comunidade científica imaginar e especular o acontecimento da singularidade tecnológica, pois se a inteligência artificial superasse a humana, as máquinas não teriam razão para se manterem submissas a nós, isso seria uma ameaça para sociedade, para a civilização e para o futuro da humanidade. Mas, não acho realmente possível que isso ocorra. A verdade é que a tecnologia tem avançado muito ao longo dos anos e irá avançar ainda mais, segue-se leis, probabilidades, evidências, dados estatísticos etc, sendo que só o tempo provará se esses dados previstos acontecerão ou não (concordando com o que o Gustavo disse na última frase).E além do mais a mente humana é a mente mais poderosa que há. Acho que qualquer coisa que seja inventada, terá sido inventada por uma mente humana, logo não há como suas invenções superá-la. Também tem o fato de que quanto mais o tempo passa, através do estudo, há mais descobertas (conhecimento), ou seja, ficamos mais "inteligentes", logo, se criássemos máquinas mais inteligentes que nós, teríamos a capacidade de nos tornarmos mais inteligentes do que elas.

    ResponderExcluir
  4. Concordo com a opinião de que uma singularidade não teria razão para nos eliminar, porém discordo com as visões mais humanistas de seu ponto. Acredito que a tecnologia é sim capaz de superar a mente humana, assim como a mente humana eventualmente superará a si mesmo.

    Em caso de uma singularidade, acredito que uma inteligencia superior deveria ser capaz de ver além de expansionismo sem sentido, ou da busca do hegemonismo, e poderia reconhecer que o único propósito digno para sua inteligencia seria o suporte e a proteção de cultura(Nossa ou de qualquer outra espécie).

    ResponderExcluir
    Respostas
    1. Professor, eu tava com outra contra aqui no meu computador e esqueci de trocar as contas. Me desculpe.

      Excluir
  5. Concordo com a opinião de que uma singularidade não teria razão para nos eliminar, porém discordo com as visões mais humanistas de seu ponto. Acredito que a tecnologia é sim capaz de superar a mente humana, assim como a mente humana eventualmente superará a si mesmo.

    Em caso de uma singularidade, acredito que uma inteligencia superior deveria ser capaz de ver além de expansionismo sem sentido, ou da busca do hegemonismo, e poderia reconhecer que o único propósito digno para sua inteligencia seria o suporte e a proteção de cultura(Nossa ou de qualquer outra espécie).

    ResponderExcluir
  6. Sobre o comentário postado por John Naughton em "Forget ideology, liberal democracy’s newest threats come from technology and bioscience" concordo com o pensamento dele, principalmente na parte sobre o "dataism". Tal pensamento deve colapsar em sua própria absurdidade. O "humanism" não é uma crença tão recente como o "dataism" e não seria tão simples efetuar tal mudança de pensamentos.

    Outra coisa que me chamou a atenção foi o pensamento de que a tecnologia genética estar disponível apenas para a elite aumentando o abismo de longevidade e qualidade de vida para aqueles com mais recursos. Já vi diversas explanações diferentes desse tema e não me recordo uma que contradiga isto. Ou seja, a décadas atrás esse tema já era abordado e continua seguindo a mesma linha de pensamento: só há uma maneira de alcançar esse benefício, se "destacando" na sociedade. Por mais que a tecnologia tenha a tendência de se tornar mais acessível com o tempo, não existem projeções de acessibilidade a tal tecnologia para os menos afortunados.

    ResponderExcluir
  7. O que percebi quando o assunto é singularidade, nada mais é do que o medo da humanidade de que mecanismos avançados tenham a capacidade de raciocínio melhor que a do homem, sem imperfeições e mais ágil. Automaticamente ao ler sobre esse tema me lembrei do filme ”I, Robot” onde a IA VIKI acaba deduzindo que é mais apta a comandar a humanidade, logicamente não é como o que foi retratado no filme, mas o conceito é o mesmo, máquinas que se tornam mais inteligentes que seus criadores e começam a tomar decisões e evoluir tecnologicamente sozinhas.
    Parte desse medo, assim digamos, é pelo fato da inteligência humana e tecnológica serem diversas nos seguintes fatores, a humana tem um alto poder de criação e aprendizado, porém é lenta para executar operações lógico matemáticas e a tecnológica não ter poder de criação e executar operações lógicas em questão de segundos e como, em tese, a tecnologia é mais adaptável e evolui com mais rapidez, no momento que ela conseguir essas características humanas, nos passaremos a nos tornar obsoletos e a tecnologia vai evoluir em uma forma inimaginável.

    ResponderExcluir
  8. Eu acredito que pensar sobre as possibilidades de ocorrência (como, quando, de que forma, com que consequências) de uma singularidade tecnológica é necessário.

    Por outro lado, minha maior crítica aos futuristas que tendem a pensar a singularidade é que eles tendem a tomar a singularidade (ou pior ainda: a singularidade com determinadas características que eles adivinham que a singularidade terá) como algo inevitável.

    À medida que a ideia de uma singularidade se torna cada vez mais "mainstream", penso que tão importante quanto pensar as circunstâncias de uma possível singularidade seja pensar as consequências da não-ocorrência de uma singularidade.

    Assim como critico os fiéis (não vejo outro termo para chamá-los) da Lei de Moore por deixarem de lado questionamentos sobre vários problemas de complexidade de algoritmos alegando que "teremos computadores mais rápidos", também critico os fieis da singularidade por assumir que diversos problemas (sociais ou tecnológicos) serão resolvidos pela singularidade. Existe uma infinidade de formas pelas quais a singularidade pode ocorrer ou não, e não é seguro pensar que ela vá ocorrer de uma forma previsível. Na minha opinião, a atitude mais prudente, dadas essas circunstâncias, é de tentar observar os cenários de singularidade mais catastróficos possíveis e tentar preveni-los.

    Em especial, duas previsões recorrentes são que os humanos se tornarão obsoletos, ou que as IAs nos eliminarão. Existe um grande esforço para garantir que, quando criemos IAs fortes, essas IAs sejam assim chamadas "inteligências artificias amigáveis", ou em outros termos, IAs que tenham o bem-estar da humanidade dentre seus interesses. Esse esforço é liderado por instituições, como, por exemplo, o MIRI (Machine Intelligence Research Institute, ou Instituto de Pesquisa da Inteligência Mecânica, em tradução livre - disponível no site https://intelligence.org/). Creio que esse tipo de iniciativa será crucial à medida que a IA afetará nossa vida de forma cada vez mais profunda (mesmo que a singularidade não ocorra tão rapidamente como seus proponentes creem).

    Quanto à ideia de que os humanos se tornarão obsoletos, pessoalmente eu não acredito muito fortemente nessa tese - inclusive porque tenho interesse em fazer pesquisa no sentido de subvertê-la.

    Acredito que um elemento crucial dos tempos vindouros será uma aproximação cada vez maior do ser humano com a tecnologia, até chegarmos ao ponto em que seja inimaginável a existência do ser humano de forma separada da tecnologia - espero ver a humanidade passar do nível em que teremos tecnologia implantada em nossos corpos para o nível em que a tecnologia será indistinguível de nossos corpos, pois não haverá mais separação entre a humanidade e seus produtos tecnológicos. Na minha opinião, essa é a visão mais positiva possível de um futuro em que criemos inteligências maiores que as nossas - o futuro em que essas inteligências não existirão em uma forma separada de nós.

    ResponderExcluir
  9. Confesso que imaginar a situação de sermos capazes de simular o cérebro humano racional e emocionalmente é um tanto assustador, mas ao mesmo tempo fascinante. Segundo Ray, a maioria de nós não nos convencemos de que tal evolução ocorrerá devido ao fato da intuição humana ser linear. Mesmo assim, ainda acho que temos muito o que descobrir a respeito do cérebro humano e tal entendimento precisa ser completamente alcançado antes de tudo.
    Outro tema abordado e recorrente em filmes de ficção holywoodianos é a tomada de controle por parte das máquinas. Isso é algo que eu não temo, pois na minha opinião ocorrerá uma simbiose entre homem e máquina. No entanto, imaginar tal simbiose nas próximas décadas é um tanto ousado, mas assim são todos os pensadores a frente do seu tempo, e Ray Kurzweil não é diferente.

    ResponderExcluir
  10. Concordo com Castilho em não pensar na singularidade como algo inevitável. Talvez criar uma inteligência artificial com emoções, sentimentos ou que seja mais inteligente que os seres humanos seja inviável. A lei de Moore é bastante citada quando se fala em crescimento exponencial da tecnologia e diz respeito ao aumento de poder computacional das máquinas, que ocorre devido as empresas de hardware que criam processadores cada vez mais potentes, porém alguma restrição física ou econômica poderia acabar impedindo esse crescimento. Para mim é bastante difícil pensar em um computador sendo superinteligente considerando que atualmente ele é um objeto totalmente "burro", cuja funcionalidade é baseada em executar instrução após instrução fornecidas por algum programa. Vejo na biologia e na impressão de tecidos orgânicos uma caminho melhor de poder criar inteligência num laboratório, de certa forma "brincando de deus".
    Em relação aos cenários de catástrofes e distopias, é possível que a tecnologia acabe se tornando contra os humanos mesmo sem atingirmos uma singularidade. Simplesmente pelo fato da tecnologia se tornar uma parte cada vez maior do nosso dia-a-dia, sendo totalmente indispensável até para coisas básicas. Sempre ela será vulnerável a falhas e a abusos, como no caso da propagação de um vírus maligno que apague todos os dados de algum banco ou ative uma arma nuclear, ou num sistema de monitoramento parecida com o Big Brother do Orwell.
    No caso de acontecer uma singularidade eu mantenho uma visão positiva de que ela pode acabar eliminando muitos problemas sociais. Computadores poderiam ser integrados com seres humanos para livrá-los de qualquer deficiência e até nos conceder habilidades inimagináveis. Se de fato fosse comprovado a possibilidade disso acontecer, os recursos globais deviam ser focados em pesquisa e desenvolvimento para que a singularidade aconteça o mais rápido possível.

    ResponderExcluir
  11. Acredito que mesmo com um acelerado avanço em nossas tecnologias, não só na área de computação, a 'singularidade' como a maioria das pessoas tende a imaginar possa estar um pouco mais distante (mas não tanto) do que o que defende Kurzweil. Não é que eu não acredite que um dia computadores possam se tornar tão avançados, mas sim porque muitos detalhes são deixados de lado, como já levantados por outras pessoas. E isso, ao menos para mim, deixa um sentimento de otimismo (de vez em quando até ingênuo) demasiado em relação a outros avanços necessários para chegarmos de fato a 'singularidade'. Além disso, por só termos traços mais gerais do que seria isso, o evento se torna muito subjetivo, deixando-o aberto a diversas interpretações. Por isso eu acho que será difícil chegar num consenso no que foi a 'singularidade' quando ela ocorrer, pelo fato dela ainda ser algo muito subjetivo na mente das pessoas.

    ResponderExcluir
  12. Os artigos dizem o avanço da tecnologia faz com que tenhamos novas ferramentas capazes de avançar mais rápido, a tecnologia acelera o crescimento tecnologia.
    A parte que eu achei mais interessante é a explicação de porque esse crescimento não é sentido normalmente pelas pessoas. O artigo “The Law of Accelerating Returns” diz que é da natureza humana se adaptar à mudança de ritmo e considerar apenas as mudanças recentes, fazendo não percebemos mesmo que o ritmo aumente. Ray chama isso de “intuitive linear view”.
    Quanto a singularidade, acho que vai ocorrer, mas sem muita certeza quando. Acho bastante otimista as previsões e difícil de prever quanto tempo vai levar ou como o futuro, já que novas mudanças ou descobertas podem tornar as previsões atuais obsoletas.

    ResponderExcluir
  13. É interessante e difícil de prever as consequenciais sociais de um crescimento de qualquer recurso de forma exponencial. Especialmente uma exponencial de fator tão alta quanto a de computação, a lei de Moore prevê o dobro do número de transistores a cada 18 meses. Afim de comparação há estudos de economia que dizem que a disponibilidade média de energia e recursos matérias cresce todo ano 8% há seculos em média, o que claro diminui em crises econômicas. Então há pelo menos 2 séculos crescemos exponencialmente de uma forma geral na economia. O que em geral é traduzido de forma simplista ao dobrar da capacidade computacional a cada 18 meses, o que não é obrigatoriamente verdade. E o que é em geral estendido a outros recursos computacionais, como comunicações, armazenamento perene e memoria. Mas esses outros campos da computação tem outras taxas de crescimento. É importante notar que no começo do século XXI os computadores chegaram num limite de operações por segundo (GHz) perto de 4Ghz e após este momento, foi necessário a adição de mais cores no mesmo chip, e que durante essa transição tivemos computadores oferecendo menos recurso computacional devido a ser um recurso em um paradigma pouco usada na época, computação paralela, e que até hoje é um gargalo. Além disso é provável que o CMOS chegue no seu limite de lei de moore em 1 ou 2 décadas, e precisemos migrar a outras formas de fazer transistores. E mesmo essas novas tecnologias terão limites físicos, como o tamanho de um átomo ou uma parte subatômica. E ainda haverá transições mais drásticas, como a da computação quântica e possivelmente computação óptica, que vão requerer remodelagem quase completa para rodar. E em muitas dessas transições entre tecnologias teremos estagnação temporária ou precisar reinvestir esforços. E que talvez no final se estagne de fato num patamar superior que não permita a humanidade fazer tudo que imagina que fará, como simulações computacionais de um universo inteiro, ou de nossas próprias vidas.
    Considerando que teremos por tempo suficiente em crescimento exponencial de poder computacional, teremos a singularidade e possivelmente a não quebra do desafio de turing. Talvez tenhamos uma maquina mais inteligente que o ser humano, porém não capaz de ter consciência (ou expressar consciência aos demais), porém capaz de processar grandes volumes de dados, inferir relações e prever fatos.

    ResponderExcluir