Desenvolvimento

11 set, 2014

Apps contextuais são o novo modelo dos aplicativos móveis

Publicidade

A criação do iPhone em 2007 deu um novo sentido à computação móvel. Até então, os celulares basicamente faziam ligações, tiravam fotos, enviavam mensagens de texto (SMS) e armazenavam uma agenda de contatos. O iPhone mudou as regras do jogo, derrubando inclusive empresas líderes que não entenderam o novo cenário, como a Nokia. Com o iPhone, o celular passou a ser um computador móvel, onde uma de suas inúmeras funções era exatamente o celular. Acoplando maior capacidade computacional e mais e mais sensores, criou-se um cenário inovador para a criação de milhões de aplicações sofisticadas e contextuais. Ele já é extensão do nosso cérebro e faz parte do nosso dia a dia, com sensores que capturam pulso, temperatura, nível de colesterol, se estamos parados ou andando e qual nosso ritmo de caminhada, batimento cardíaco, onde estamos, com quem falamos ou trocamos ideias, quais nossos compromissos e cada vez mais o que queremos e que faremos a seguir.

Este cenário nos leva a um novo desafio: a criação de apps que entendam o contexto de cada usuário e ajam de forma preditiva, disparando ações até mesmo sem nossa interferência. Isto é possível, pois um smartphone, com seus inúmeros sensores e tendo na retaguarda nuvens computacionais com milhões de petabytes e modelos preditivos, conseguem capturar e analisar as relações de seu proprietário com outras pessoas, empresas, objetos e o ambiente ao seu redor.

Os smartphones estão se transformando em verdadeiros assistentes pessoais, podendo ser considerados nosso sexto sentido – o sentido digital. A interface se torna cada vez mais intuitiva e provavelmente o modelo de comunicação com eles será através de comunicação natural, como demonstram o Siri, o Cortana e o Google Now. Com um conhecimento contextual eles podem nos ajudar na tomada de decisões e até mesmo, baseado em inferências, tomar decisões por si e apenas nos solicitar aprovação. Por exemplo, analisando o prato à sua frente (pela câmera) e sabedor de sua dieta, alertar que o nível de calorias está acima da recomendada. Sabendo onde você está, se está caminhando e qual sua velocidade, e conhecedor de sua agenda, identifica que você está em um ritmo que chegará atrasado ao compromisso. Ele o alerta e você decide se vai andar mais depressa ou pede para ele, via interface de voz, para alertar a outra pessoa que você chegará dez minutos atrasado…

Estes apps contextuais caracterizarão a nova geração de apps. Muitos dos apps atuais, principalmente os corporativos, são baseados na metáfora dos desktops travestidos para smartphones e tablets. Não exploram a potencialidade dos sensores destes equipamentos e nem da capacidade de nuvens que estão na retaguarda, com milhões de petabytes e sofisticados algoritmos preditivos.

A camada tecnológica para os apps contextuais já existe. Os sistemas de NLP (Natural Language Processing) já estão bem evoluídos e melhoram a cada dia. Já vimos na prática o que os computadores são capazes, quando em 2011 surgiram o Watson da IBM e o Siri da Apple. De lá para cá as interfaces em linguagem natural evoluíram significativamente e tudo indica que evoluirão muitas vezes mais nos próximos anos. O uso de NLP como interface natural de comunicação com smartphones será uma mudança tão significativa quanto foi o surgimento da interface gráfica (GUI), como o Windows, na era do PC.

A desmaterialização da tecnologia, com mais e mais capacidade de processamento e armazenamento de informações em espaço cada vez menores, está permitindo colocarmos muito mais sensores nos smartphones e nos objetos à nossa volta. Estes objetos comunicar-se-ão com os smartphones, que serão nossos hubs pessoais (ou nossos próprios servidores de redes de objetos pessoais) e permitirão capturar muitas informações sobre nossa localização, identidade, atividades, nosso estado físico, tarefas e assim por diante… Um exemplo muito interessante é o Gimbal, plataforma para desenvolvimento de apps contextuais.

Além da NLP e dos sensores, teremos mais e mais algoritmos preditivos na retaguarda dos smartphones. Estes algoritmos permitirão que os celulares tomem decisões baseadas em nosso padrão de comportamento e atividade. Um exemplo é a Fluid, que criou um app que, interagindo com o Watson da IBM, se torna seu assistente pessoal para shopping.

Nos próximos anos, o cenário de apps contextuais ou apps cognitivas se tornarão o modelo mental de apps para mobilidade. Isto significa que os desenvolvedores deverão ter a preocupação de saber como desenvolver tais apps e que skills serão necessários para isso. Estamos preparados ou nos preparando para isso?