Tecnologia

Quando Siri se tornará Samantha de Spike Jonze 'dela'?

No filme vencedor do Oscar de Spike Jonze, um homem chamado Theodore Twombly, interpretado por Joaquin Phoenix, se apaixona por seu sistema operacional inteligente, uma entidade que se autodenomina Samantha e é dublada por Scarlett Johansson. Por meio do filme, Samantha demonstra, ou aproxima, a capacidade de aprender, de interpretar uma grande variedade de pistas informativas e talvez até a capacidade de amar. Fãs, críticos e escritores de tecnologia surgiram da experiência de assistir ao filme com algumas perguntas: até onde teríamos que empurrar a inteligência artificial para aproximar Samantha? Quão grande seria o salto dessa tecnologia em relação às versões atuais, como o Siri da Apple? Que tipo de capacidade tecnológica precisaríamos para tornar Samantha uma realidade?

Ray J e a princesa se casaram?

Em janeiro, Stephen Wolfram, cujo 'motor de conhecimento computacional' Wolfram Alpha dirige o componente de inteligência artificial do assistente virtual Siri no iPhone da Apple, disse ao Wall Street Journal's Robin Kawakami que ele acha que a tecnologia que permitiria um sistema operacional como Samantha não é tão longe .



“A mecânica de fazer a IA funcionar - não acho que seja a parte mais desafiadora. A parte desafiadora é, em certo sentido: Definir o produto significativo. ” Em contraste com a infinidade de papéis e tarefas que Samantha assume no filme, a inteligência artificial do futuro provavelmente será construída para completar tarefas específicas. Embora Wolfram tenha pensado anteriormente que seria possível criar 'uma IA de uso geral semelhante a um humano, com uma superversão de atributos humanos exatos', ele observa que essa não é mais a direção em que ele vê a área se movendo .

Em vez disso, ele prevê que em breve veremos assistentes pessoais mais capazes para ler e analisar nosso e-mail, dividindo-os por assunto. Os sistemas de gerenciamento de e-mail como o Sanebox ou mesmo o sistema de guias da caixa de entrada do Gmail são exemplos iniciais. Embora Wolfram pense que não seria difícil construir um assistente falante semelhante a Samantha, ele questiona a praticidade de um assistente de voz quando as apresentações visuais são mais prevalentes para transmitir informações.

Kawakami também falou com Peter Norvig, diretor de pesquisa do Google, que destacou que as percepções desempenham um grande papel em nossa interação com a tecnologia. “Os humanos são muito bons em se enganar. Se você fizer as perguntas certas ao Siri, ele fará um bom trabalho. Se você fizer a pergunta errada, parecerá bobo - a mesma coisa com o Watson [da IBM]. ”

Na opinião de Norvig, elementos de inteligência artificial nos rodeiam, visíveis nos motores de recomendação Netflix e Amazon, ou no Siri e no software Wolfram Alpha que o sustenta. Norvig explicou: “Eu penso na IA como descobrir como fazer a coisa certa quando você não sabe o que é a coisa certa. Não sabemos como escrever as regras para qual é a diferença entre um rosto e outra coisa, então a IA está respondendo a essa pergunta. ”

Para Wolfram, a definição de inteligência artificial é um pouco mais nebulosa. Embora muitos computadores possam reproduzir funções do cérebro humano, eles completam essas tarefas de uma maneira completamente diferente da que o cérebro faz, e isso torna difícil definir a diferença entre inteligência e computação.

Ele disse a Kawakami: “Eu costumava pensar que havia algum tipo de mágica na atividade cerebral”. Mas ele observou que, anos de pesquisa depois, ele descobriu que não havia nenhuma 'distinção de linha brilhante' entre o que seria considerado inteligente e o que seria considerado 'meramente' computacional, e a experiência humana compartilhada é o que distingue a inteligência humana da computação pura .

Essa linha entre inteligente e computacional é ainda mais obscurecida pela introdução de chips de computador que completam tarefas de inteligência artificial e afirmam funcionar da mesma maneira que o cérebro humano. Como John Markoff relatou para o New York Times em agosto, a IBM desenvolveu um chip de computador , ou processador, chamado TrueNorth, que tenta imitar a maneira como o cérebro reconhece padrões, usando teias de transistores semelhantes às redes neurais do cérebro. Em artigo publicado na revista Ciência , um grupo de pesquisadores explicou que o chip foi construído com 4.096 núcleos neurossinápticos , integrando 1 milhão de “neurônios de pico” programáveis, que podem codificar dados como padrões de pulsos e 256 milhões de sinapses configuráveis.

Os neurônios eletrônicos do TrueNorth são capazes de sinalizar uns aos outros quando um tipo de dados ultrapassa um certo limite, como quando a luz está ficando mais brilhante ou mudando de cor ou forma. Essa capacidade pode permitir que o processador reconheça atos que os computadores e robôs atuais lutam para interpretar. Como exemplo, Markoff observa que o chip pode ser capaz de reconhecer uma mulher em um vídeo pegando uma bolsa - algo que os humanos podem fazer facilmente, mas os computadores atuais não podem.

O chip é uma conquista importante em termos de escalabilidade e eficiência. TrueNorth contém 5,4 bilhões de transistores, mas consome apenas 70 miliwatts de energia, contra os processadores Intel para computadores pessoais, que podem ter 1,4 bilhão de transistores e consumir algo entre 35 a 140 watts. Com fio notado no momento em que o chip foi revelado que a IBM o testou com tarefas comuns de inteligência artificial , como reconhecer imagens, e ele poderia realizar essas tarefas com a velocidade normal, mas muito menos energia do que os chips tradicionais exigiriam.

Nesses testes, a TrueNorth reconhecia pessoas, ciclistas, carros, ônibus e caminhões com 80 por cento de precisão. Mas alguns questionam se a tecnologia é significativamente diferente do que já está disponível e se a abordagem realmente trará os avanços significativos que a IBM afirma que trará.

Um processador tradicional separa o armazenamento de dados e as partes de processamento de dados do computador - a memória e a CPU - e os chips neuromórficos representam um afastamento dessa arquitetura em que a memória e as partes computacionais do computador são colocadas em pequenos módulos que processam informações localmente, mas comuniquem-se uns com os outros.

Mas as tarefas que o chip pode realizar até agora não são robustas o suficiente para impressionar muitos que estão pesquisando a área de aprendizado de máquina, um subcampo da inteligência artificial que abrange sistemas que podem aprender com os dados e agir sem serem programados explicitamente. Resta saber como a tecnologia se desenvolve e se dimensiona, e como o TrueNorth terá um bom desempenho quando colocado para trabalhar em grandes problemas, como o reconhecimento de muitos tipos de objetos.

Com fio observa que, embora o chip tenha um bom desempenho nas tarefas simples de detecção e reconhecimento de imagem usando o conjunto de dados NeoVision2 Tower da DARPA, esse conjunto de dados inclui apenas cinco categorias de objetos. Por outro lado, o software usado no Baidu e no Google é “treinado” na base de dados ImageNet, que inclui milhares de categorias de objetos. Para muitos, neurochips como o da IBM precisam demonstrar a capacidade de aprender a quebrar os paradigmas de computação atuais.

E não é apenas o fato de que aproximar a inteligência humana exigiria uma incrível capacidade de armazenamento e computação que torna Samantha uma tecnologia difícil de replicar. Tim Tuttle, executivo-chefe da Expect Labs, disse New York Magazine's Kevin Roose disse que, embora os computadores atuais sejam bons em imitar comportamentos comuns e previsíveis - como o que vamos digitar na barra de pesquisa do Google ou quais itens compraremos na Amazon, devido ao nosso histórico de navegação e compra - ser capaz de entender e responder ao imprevisível, entrada original é o que diferencia Samantha de Siri. Hoje, os computadores podem reconhecer palavras, compará-las com um banco de dados e encontrar as informações que eles acham que queremos. Mas um assistente virtual que pode aprender, ensinar e identificar e interpretar pistas não-verbais está várias etapas removidas da tecnologia que está disponível atualmente.

Considerando Sua e a tecnologia que, o filme parece dizer, poderia estar esperando em um futuro não tão distante, é a capacidade de aprender que permite a Samantha superar em muito as expectativas de Teodoro para ela e, aparentemente, suas expectativas para si mesma. Mas o fato de Samantha ter sido originalmente criada para fazer uma coisa - gerenciar e-mails, ajudar com agendas e manter a vida eletrônica do usuário funcionando de forma limpa - e com fluidez aprender a fazer tantas outras coisas - aprender e desenvolver com base em sua interação com Theodore e com o resto do mundo, virtual e físico - leva o conceito de aprendizado de máquina a um novo nível, que não é igualado pela tecnologia de hoje ou pela trajetória que se espera que tome.

Roose aprendeu com D. Scott Phoenix, cofundador da empresa de aprendizado de máquina Vicarious, que os computadores ajudam os usuários combinando o que dizemos com uma lista de comandos armazenados. Mas o problema com isso é que não é a mesma coisa que entender a linguagem, e os humanos entendem o mundo e a linguagem por meio de um 'universo sensorial'. Em um conceito chamado de problema de aterramento de símbolos, os cientistas da computação teorizam que você poderia carregar o banco de dados de um robô com todos os símbolos do universo - tudo na internet, tudo já impresso em um livro, cada palavra falada por um humano - mas o robô faria ainda não seria capaz de atuar plenamente humano, pois não haveria como conectar esses símbolos aos objetos e conceitos que os humanos vivenciam no mundo real.

Da mesma forma, o Watson da IBM, que pode ler rapidamente, processar linguagem natural e adicionar à sua base de conhecimento, não é capaz de 'pensar' sobre problemas e situações da mesma forma que um ser humano pode, e não tem a capacidade de processar muitas situações simples que os humanos podem entender sem pensar muito. Na realidade, os assistentes virtuais que veremos em um futuro próximo provavelmente serão mais especializados, mais mundanos e nitidamente menos parecidos com humanos do que os fãs de Sua gostaria de acreditar.

quanto os modelos secretos da Vitória ganham

Em um pedaço para Variedade em janeiro, Dag Kittlaus, o co-criador do Siri, observou que o Siri foi construído “ para fazer as coisas . ” Mas o assistente virtual se tornou um fenômeno cultural “da noite para o dia”, não porque o assistente facilitou o uso do telefone, mas porque o Siri era divertido e parecia um pouco humano.

Kittlaus aponta que Samantha tem mais inteligência emocional do que Siri e, do ponto de vista tecnológico, construir um sistema que fosse capaz de todas as coisas que Samantha disse, fez e entendeu 'implicaria em reconhecimento de imagem em tempo real em escala maciça, compreensão espacial, reconhecimento facial e de humor - além de compreender as sutilezas de milhares de cenários sociais para prever que o casal sentado à mesa estaria em um primeiro encontro. ” Ponderando se o Siri pode alcançá-lo, Kittlaus conclui: 'Talvez, mas não prenda a respiração.'

Assistentes pessoais que podem entender e usar a linguagem natural, aprender conceitos complexos e expressar emoções humanas provavelmente não estarão disponíveis tão cedo. E mesmo que os pesquisadores sejam capazes de construir computadores inteligentes como Samantha, ainda há o problema de que, com todas as informações do mundo, mesmo o computador mais inteligente e semelhante a um humano nunca pode agir verdadeira e totalmente como um ser humano real.

Mais da Folha de Dicas de Tecnologia:

  • Jonas Salk se juntaria ao movimento de código aberto?
  • As ‘salas’ e o Ello do Facebook nos permitem escolher nossas próprias identidades
  • A privacidade online ocupa um lugar secundário na conveniência