Eliezer Shlomo Yudkovsky é um especialista americano em inteligência artificial, que estuda os problemas da singularidade tecnológica e defende a criação da IA Amigável. Ele é autor de várias histórias de ficção científica nas quais ilustra alguns tópicos relacionados à ciência cognitiva e à racionalidade.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: biografia
Eliezer Shlomo Yudkovsky é um dos racionalistas mais ativos da América moderna, pesquisador de computadores e popularizador da idéia de "inteligência artificial amigável".
Nascido em 11 de setembro de 1979. Co-fundador e pesquisador da organização não governamental Institute for Research on Machine Intelligence, que publica seus livros. Eliezer Yudkovsky é o autor do romance filosófico Harry Potter e os Métodos do Racionalismo, publicado em partes na Internet entre 2010 e 2015. Nele, Harry cresce na família de um cientista de Oxford e, antes de viajar para Hogwarts, aprende com ele os métodos do pensamento racional.
Tanto quanto se sabe, não tem conexão com o círculo de "realistas especulativos". Seu nome é mencionado frequentemente em conexão com Robin Hanson, por vários anos (de 2006 a 2009) foram os dois principais autores do blog "Superando o Preconceito", que existia com o dinheiro do Institute for Future Humanity, em Oxford.
Às vezes, o nome de Yudkovsky pode ser ouvido em conexão com Raymond Kurzweil. Ele é um representante filosofador da comunidade de tecno-geeks, inacessível e incompreensível, portanto, para a maioria do público humanitário, ao qual quase todos os leitores de realistas especulativos pertencem. Não é de surpreender, porque ele frequentemente se volta para a linguagem lógica e matemática, conclusões probabilísticas e estatísticas, expostas usando fórmulas e tabelas.
Interesses científicos
Yudkovsky é co-fundador e pesquisador do Instituto de Singularidade para Instituto de Inteligência Artificial (SIAI). Ele fez uma grande contribuição para o desenvolvimento do instituto. Ele é o autor do livro "Criação de IA amigável" (2001), artigos "Níveis de organização em inteligência geral" (2002), "Volição extrapolada coerente" ("Volição extrapolada coerente", 2004) e The Timeless Decision Theory (2010). Suas últimas publicações científicas são dois artigos da coleção “Riscos de uma catástrofe global” (2008) editada por Nick Bostrom, a saber, “Inteligência artificial como fator positivo e negativo de risco global” e “Distorção cognitiva na avaliação de riscos globais”. Yudkovsky não estudou em universidades e é um autodidata sem educação formal no campo da IA.
Yudkovsky explora aquelas construções de IA que são capazes de auto-entendimento, autod modificação e auto-aperfeiçoamento recursivo (Seed AI), bem como arquiteturas de IA que terão uma estrutura de motivação estável e positiva (Friendly Artificial Intelligence). Além de seu trabalho de pesquisa, Yudkovsky é conhecido por suas explicações sobre modelos complexos em uma linguagem não acadêmica, acessível a um amplo círculo de leitores, por exemplo, veja seu artigo "Uma explicação intuitiva do teorema de Bayes".
Yudkovsky, juntamente com Robin Hanson, foi um dos principais autores do blog Overcoming Bias (superando o preconceito). No início de 2009, ele participou da organização do blog Less Wrong, com o objetivo de "desenvolver a racionalidade humana e superar distorções cognitivas". Depois disso, Overcoming Bias se tornou o blog pessoal de Hanson. O material apresentado nesses blogs foi organizado como cadeias de posts que atraíram milhares de leitores - veja, por exemplo, a cadeia da teoria do entretenimento.
Yudkovsky é o autor de várias histórias de ficção científica nas quais ilustra alguns tópicos relacionados à ciência cognitiva e à racionalidade.
Carreira profissional
- 2000. Yudkovsky funda o Singularity Institute (mais tarde renomeado MIRI).
- 2006. Yudkovsky entra no blog coletivo Overcoming Bias e começa a escrever textos que mais tarde se tornaram Chains.
- 2009. Com base nas entradas de Yudkovsky em Overcoming Bias, o famoso blog coletivo LessWrong.com é criado.
- 2010-2015. Yudkovsky escreve GPiMRM.
- 2013. Yudkovsky publica as últimas postagens no LessWrong.com e para de escrever no site. A partir de 2017, Yudkovsky publica a maioria dos textos publicamente disponíveis no Facebook e Arbital
Experiência de pensamento
Imagine uma superinteligência artificial incrivelmente inteligente trancada em um mundo virtual - digamos, apenas em uma caixa de rapé. Você não sabe se ele será mau, amigável ou neutro. Tudo que você sabe é que ele quer sair da caixa e que você pode interagir com ele através de uma interface de texto. Se a IA é realmente superinteligente, você pode falar com ele por cinco horas e não sucumbir à sua persuasão e manipulação - para não abrir a caixa de rapé?
Esse experimento mental foi proposto por Eliezer Yudkowsky, pesquisador do Instituto de Engenharia de Engenharia (MIRI). A MIRI tem muitos cientistas que estão explorando os riscos do desenvolvimento de superinteligência artificial; embora ainda não tenha aparecido, já está atraindo atenção e alimentando um debate.
Yudkovsky argumenta que a superinteligência artificial pode dizer tudo o que pode para convencê-lo: raciocínio cuidadoso, ameaças, engano, construção de relacionamento, sugestão subconsciente e assim por diante. Com a velocidade da luz, a IA constrói um gráfico, detecta pontos fracos e determina como é mais fácil convencê-lo. Como afirmou o teórico existencial das ameaças Nick Bostrom, "devemos acreditar que a superinteligência pode alcançar tudo o que estabelece como objetivo".
O experimento de IA do snuffbox lança dúvidas sobre nossa capacidade de controlar o que poderíamos criar. Também nos faz compreender as possibilidades bastante bizarras do que não sabemos sobre nossa própria realidade.