Historicamente, as plataformas Google utilizaram basicamente apenas dois sentidos do corpo humano: tato e visão. Ambos são as portas de entrada para a interação com a página de busca da gigante americana, para utilizar os jogos e aplicativos em seus smartphones com Android, além de outra série de funcionalidades entregues aos usuários. Porém, isso está mudando de uma forma radical.
Nas últimas edições do Google I/O, alguns anúncios demonstram claramente uma mudança de rota na empresa, indo ao encontro da tendência mundial na Ciência da Computação, a Inteligência Artificial. Seja através de seu Machine Learning Kit, seja através de seu Google Vision Kit, a estratégia parece estar muito clara.
E onde entram os desenvolvedores nesse cenário? As respostas são várias, dependendo do ponto de vista. O primeiro é no viés de um desenvolvedor. As iterações possíveis por parte do usuário crescem consideravelmente. Os dedos da mão em uma tela touchscreen, um teclado ou um mouse já não são a única forma de entrada de dados.
O desenvolvedor pode usar a pilha de serviços do Firebase juntamente com o Firebase Machine Learning Kit para, por exemplo, estudar melhor a tecnologia que implementei – um sistema de alarme um pouco diferente. Ele roda em um Raspberry Pi 3 Model B, com o sistema operacional do Android Things.
Com um sensor de proximidade, ele percebe que algo se aproximou e dispara um alarme. Depois disso, ele aguarda uma notificação oriunda do Firebase Cloud Messaging.
Para parar o alarme, um aplicativo específico rodando no smartphone precisa ser aberto, e o usuário tem que sorrir para a tela do dispositivo. Através do Firebase Machine Learning Kit, o rosto e o sorriso são reconhecidos.
Quando isso ocorre, uma notificação push é enviada para um serviço rodando na nuvem do Firebase Hosting, integrado ao Firebase Cloud Functions. Este último, por sua vez, dispara a notificação push que chega ao Raspberry Pi, interrompendo o som de alarme.
Outra interação possível é o uso do processamento de linguagem natural. Google Assistant SDK e Voice Actions são ferramentas disponíveis para o desenvolvedor. Apesar de isso já ser possível anteriormente com Speech to Text através de uma simples Intent da biblioteca Android, agora a capacidade dos SDKs aumentou, e as possibilidades, em consequência, também.
Outro ponto de vista é o dos profissionais de design. Com novas entradas de dados e novas formas de inputar ações em uma tela, UI (User Interface) e UX (User Experience) também vão precisar se adaptar. Até mesmos novos conceitos e novas nomenclaturas estão sendo criadas, como Voice User Interface (VUI) e Projeto de Interação de Voz.
Por exemplo, o fluxo de uma conversação envolvendo o usuário e a aplicação de um sistema de processamento de linguagem natural devem ser pensados e desenhados por quem?
Para os projetistas, gerentes de projetos e outros profissionais responsáveis pela criação e desenvolvimento de soluções, novas ideias podem ser pensadas, quebrando o círculo vicioso dos mesmos tipos de aplicações. Por que não implementar um aplicativo em que um piscar de olhos dispara uma ação?
Um fomentador de ideias pode ser o próprio Google. Recentemente, o AIY Vision Kit foi lançado. Ele possui um site oficial que tem 70 passos, com imagens muito claras, sobre como montar esse kit. No final do trabalho, teremos uma espécie de caixinha tecnológica e inteligente que reconhece rostos mudando a cor de um botão que fica na parte superior. Além disso, reconhece quando o rosto sorri e muda a cor do mesmo botão, e ainda emite um som.
Acredito que estamos em um tempo crucial para mudanças radicais no uso da tecnologia. Um clique, um toque na tela e uma movimentação de swipe são tecnicamente naturais, porém voz, gestos e expressões faciais são inerentes aos humanos. E isso sem falar em SDKs já à venda que permitem leitura de ondas cerebrais.
O que podemos resumir disso tudo? Os próximos anos e as próximas soluções serão ainda mais espetaculares do que já são, e os desenvolvedores precisam começar a se iterar de novos assuntos, principalmente aqueles relacionados à Inteligência Artificial.
***
Artigo publicado na revista iMasters, edição #28: https://issuu.com/imasters/docs/imasters_28_v5_issuu