Facebook Realidade de Laboratório: Vai fazer parte do projeto Transhumanista da Elite tecnocrata



Pode parecer ficção científica, mas é um futuro que o Facebook está construindo dentro de nossos laboratórios. E hoje, compartilharemos nossa visão de como as pessoas irão interagir com o futuro do teletransporte.

Há um filme cristão dos anos 1990 chamado Apocalypse 2: Revelation 2, e enquanto eu gosto muito de vê-lo, também admito que é um pouco datado e um pouco brega, mas da melhor maneira possível se você ama a profecia bíblica dos tempos finais. Uma cópia completa desse filme está no final deste artigo, e eu sugiro que você assista. A cena principal que eu quero que você veja na cena em que os atores colocam óculos de Realidade Aumentada (AR) em algo chamado Dia das Maravilhas.

Quando você assistir a cena eu quero que você volte para este artigo para ver a conexão. Como se vê, em vez de ser um brega, filme cristão fim dos tempos, é realmente mais como programação preditiva. O Facebook está gastando centenas de milhões para criar o Dia das Maravilhas. Eu aconselho que você não tenha nada a ver com nada do Facebook Reality Labs, realidade aumentada, teletransporte ou qualquer um desses lixos.

Dentro dos Laboratórios de Realidade do Facebook: A próxima era da interação homem-computador


Imagine um mundo onde um par de óculos leve e elegante poderia substituir sua necessidade por um computador ou smartphone. Você teria a capacidade de se sentir fisicamente presente com amigos e familiares - não importa onde no mundo eles estavam - e a IA contextualmente consciente para ajudá-lo a navegar pelo mundo ao seu redor, bem como informações virtuais 3D ricas ao alcance do braço. O melhor de tudo, eles deixariam você olhar para cima e ficar presente no mundo ao seu redor em vez de puxar sua atenção para a periferia na palma da sua mão. Este é um dispositivo que não o forçaria a escolher entre o mundo real e o mundo digital.

O desafio de interação AR

O cientista-chefe do Facebook Reality Labs (FRL), Michael Abrash, chamou a interação AR "um dos problemas multidisciplinares mais difíceis e interessantes ao redor", porque é uma mudança completa de paradigma na forma como os humanos interagem com computadores. A última grande mudança começou na década de 1960, quando a equipe de Doug Engelbartinventou o mouse e ajudou a pavimentar o caminho para as interfaces gráficas de usuários (GUIs) que dominam nosso mundo hoje. A invenção da GUI mudou fundamentalmente o HCI para melhor — e é uma mudança de mar que se manteve por décadas.

Mas os óculos AR vestíveis durante todo o dia exigem um novo paradigma, porque eles serão capazes de funcionar em todas as situações que você encontrar no decorrer de um dia. Eles precisam ser capazes de fazer o que você quer que eles façam e dizer o que você quer saber quando você quer saber, da mesma maneira que sua própria mente funciona - compartilhando informações perfeitamente e tomando medidas quando você quer, e não ficando no seu caminho de outra forma.

"PARA QUE O AR SE TORNE VERDADEIRAMENTE ONIPRESENTE, VOCÊ PRECISA DE UMA TECNOLOGIA DE BAIXO ATRITO E SEMPRE DISPONÍVEL QUE SEJA TÃO INTUITIVA PARA USAR QUE SE TORNE UMA EXTENSÃO DO SEU CORPO", DIZ ABRASH. "ISSO É MUITO LONGE DE ONDE O HCI ESTÁ HOJE. ENTÃO, COMO ENGELBART, PRECISAMOS INVENTAR UM TIPO COMPLETAMENTE NOVO DE INTERFACE — QUE NOS COLOCA NO CENTRO DA EXPERIÊNCIA DE COMPUTAÇÃO."


Esta interface AR precisará ser proativa em vez de reativa. Será uma interface que transforma a intenção em ação perfeitamente, nos dando mais agência em nossas próprias vidas e permitindo que fiquemos presentes com aqueles ao nosso redor.


É importante ressaltar que ele precisará ser socialmente aceitável em todos os aspectos — seguro, privado, discreto, fácil de aprender, fácil de usar, confortável/o dia todo, sem esforço e confiável.


À medida que construímos a próxima plataforma de computação centrada em pessoas, estamos comprometidos em impulsionar essa inovação de forma responsável e centrada na privacidade. É por isso que elaboramos um conjunto de princípios para a inovação responsável que guiam todo o nosso trabalho no laboratório e ajudam a garantir que construamos produtos projetados com privacidade, segurança e segurança na vanguarda. Em suma, a interface AR exigirá uma reformulação completa de como humanos e computadores interagem, e transformará nossa relação com o mundo digital tanto quanto a GUI.


O espaço problemático, explorado

Diga que você decide caminhar até o seu café local para fazer algum trabalho. Você está usando um par de óculos AR e uma pulseira macia. Ao sair pela porta, seu assistente pergunta se você gostaria de ouvir o último episódio do seu podcast favorito. Um pequeno movimento do dedo permite clicar em "jogar".


QUANDO VOCÊ ENTRA NO CAFÉ, SEU ASSISTENTE PERGUNTA: "VOCÊ QUER QUE EU COLOQUE EM UM PEDIDO PARA UM AMERICANO DE 12 ONÇAS?" NÃO NO CLIMA PARA O SEU HABITUAL, VOCÊ NOVAMENTE APERTAR O DEDO PARA CLICAR EM "NÃO".


Você vai para uma mesa, mas em vez de puxar um laptop, você puxa um par de luvas s haptic macias e leves. Quando você os coloca, uma tela virtual e um teclado aparecem na sua frente e você começa a editar um documento. Digitar é tão intuitivo quanto digitar em um teclado físico e você está em um rolo, mas o barulho do café torna difícil de se concentrar.


Reconhecendo o que você está fazendo e detectando que o ambiente é barulhento, o Assistente usa monitores in-ear especiais (IEMs) e cancelamento de ruído ativo para suavizar o ruído de fundo. Agora é fácil se concentrar. Um servidor que passa pela sua tabela pergunta se você quer uma recarga. Os óculos sabem deixar sua voz passar, mesmo que o ruído ambiente ainda esteja silenciado, e proativamente melhoram sua voz usando beamforming. Vocês dois têm uma conversa normal enquanto reabastecem seu café apesar do ambiente barulhento — e tudo isso acontece automaticamente.


Um amigo liga, e seu assistente envia-o automaticamente para a caixa postal para não interromper sua conversa atual. E quando é hora de sair para pegar as crianças com base no seu evento agendado, você recebe um lembrete visual suave para que você não se atrase devido às condições atuais de tráfego.


Construindo a interface AR

A FRL Research reuniu uma equipe altamente interdisciplinar composta por cientistas de pesquisa, engenheiros, neurocientistas e muito mais, liderados pelo diretor de Ciência da Pesquisa Sean Keller, todos se esforçando para resolver o problema de interação ar e chegar à próxima grande mudança de paradigma da computação.


"PENSAMOS CLÁSSICAMENTE EM ENTRADA E SAÍDA DA PERSPECTIVA DO COMPUTADOR, MAS A INTERAÇÃO AR É UM CASO ESPECIAL EM QUE ESTAMOS CONSTRUINDO UM NOVO TIPO DE COMPUTADOR VESTÍVEL QUE ESTÁ SENTINDO, APRENDENDO E AGINDO EM CONJUNTO COM OS USUÁRIOS À MEDIDA QUE ELES PASSAM O DIA", DIZ KELLER, QUE SE JUNTOU À FRL RESEARCH PARA CONSTRUIR UMA EQUIPE DE CINCO PESSOAS QUE, DESDE ENTÃO, CRESCEU PARA UMA EQUIPE DE CENTENAS DE ESPECIALISTAS DE CLASSE MUNDIAL EM APENAS SEIS ANOS. "QUEREMOS CAPACITAR AS PESSOAS, PERMITINDO QUE CADA UM DE NÓS FAÇA MAIS E SEJA MAIS — POR ISSO, NOSSOS MODELOS DE INTERAÇÃO AR SÃO CENTRADOS NO SER HUMANO."


No Facebook Connect em 2020, Abrash explicou que uma interface AR sempre disponível e ultra-baixa e de atrito será construída em dois pilares tecnológicos: O primeiro é a entrada de ultra-baixo atrito,então quando você precisa agir, o caminho do pensamento para a ação é o mais curto e intuitivo possível.


Você pode fazer gestos com a mão, fazer comandos de voz ou selecionar itens de um menu olhando para eles — ações habilitadas por câmeras de rastreamento manual, uma matriz de microfone e tecnologia de rastreamento de olhos. Mas, em última análise, você vai precisar de uma maneira mais natural e discreta de controlar seus óculos AR. Exploramos uma série de opções de entrada neural, incluindo eletromografia (EMG). Embora várias direções tenham potencial, o EMG baseado no pulso é o mais promissor. Esta abordagem utiliza sinais elétricos que viajam da medula espinhal para a mão, a fim de controlar as funções de um dispositivo baseado na decodificação de sinal no pulso. Os sinais através do pulso são tão claros que o EMG pode detectar movimento do dedo de apenas um milímetro. Isso significa que a entrada pode ser fácil — tão fácil quanto clicar em um botão virtual e sempre disponível — e, em última análise, pode até ser possível sentir apenas a intenção de mover um dedo.


O segundo pilar é o uso de IA, contexto e personalização para escopo dos efeitos de suas ações de entrada para suas necessidades a qualquer momento. Trata-se de construir uma interface que possa se adaptar a você, e exigirá a construção de modelos de IA poderosos que possam fazer inferências profundas sobre quais informações você pode precisar ou coisas que você pode querer fazer em vários contextos, com base em uma compreensão de você e seu entorno, e que podem apresentar-lhe o conjunto certo de escolhas. Idealmente, você só terá que clicar uma vez para fazer o que você quer fazer ou, melhor ainda, a coisa certa pode um dia acontecer sem que você tenha que fazer nada. Nosso objetivo é mantê-lo no controle da experiência, mesmo quando as coisas acontecem automaticamente.


Embora a fusão da IA contextualmente consciente com entrada de ultra-baixo atrito tenha um enorme potencial, desafios importantes permanecem — como como embalar a tecnologia em um fator de forma vestível confortável e durante todo o dia e como fornecer o rico feedback háptico necessário para manipular objetos virtuais. Haptics também permite que o sistema se comunique ao usuário (pense na vibração de um celular). Para enfrentar esses desafios, precisamos de sistemas vestíveis macios durante todo o dia. Além de seu trabalho profundo através de entradas de ultra-baixo atrito e IA contextualizada, a equipe de Keller está aproveitando eletrônicos macios e vestíveis — dispositivos usados perto ou na superfície da pele onde detectam e transmitem dados — para desenvolver uma ampla gama de tecnologias que podem ser usadas confortavelmente o dia todo na mão e pulso, e que nos darão um caminho bidirecional muito mais rico para a comunicação. Estes incluem sensores EMG e pulseiras.


A interação com óculos AR se beneficiará, em última análise, de uma nova integração de múltiplas tecnologias novas e/ou aprimoradas, incluindo entrada neural, rastreamento de mãos e reconhecimento de gestos, reconhecimento de voz, visão computacional e várias novas tecnologias de entrada, como clique de dedo IMU e detecção de auto-toque. Ele exigirá uma ampla gama de recursos contextuais de IA, desde a compreensão da cena até a pesquisa visual, tudo com o objetivo de tornar mais fácil e rápido agir sobre as instruções que você já estaria enviando para o seu dispositivo.


E para realmente centralizar as necessidades humanas nessas novas interações, elas precisarão ser construídas de forma responsável do zero,com foco nas necessidades de privacidade e segurança do usuário. Esses dispositivos mudarão a forma como interagimos com o mundo e uns com os outros, e precisaremos dar aos usuários controle total sobre essas interações.


Construir a interface AR é um empreendimento difícil e de longo prazo, e ainda há anos de pesquisa para fazer. Mas plantando as sementes agora, acreditamos que podemos chegar ao momento Engelbart da AR e, em seguida, colocar essa interface nas mãos das pessoas nos próximos 10 anos, mesmo que continue a evoluir nas próximas décadas. 

Nenhum comentário:

Tecnologia do Blogger.