|

ISSN: 1646-0006 · Editor: Filipe Miguel Tavares

|
  • prev
    |
  • Jan
    |
  • Fev
    |
  • Mar
    |
  • Abr
    |
  • Mai
    |
  • Jun
    |
  • Jul
    |
  • Ago
    |
  • Set
    |
  • n/d
    |
  • n/d
    |
  • n/d
    |
  • next
Ultimamente tenho vindo a acompanhar a crescente tendência na utilização de interfaces hápticas.
24
Set

Novas interfaces
[email protected] 01:12

Ultimamente tenho vindo a acompanhar a crescente tendência na utilização de interfaces hápticas.

Antes de mais, a definição: segundo a wikipedia, háptico significa "relativo ao tacto", é sinónimo de "táctil", sendo proveniente do grego haptikós, "próprio para tocar, sensível ao tacto".

Posto isto, olhamos para trás: até aqui, o paradigma da interacção tem sido o teclado, baseado na máquina de escrever, a primeira das quais nascida em 1870 pela mão da Remington (também criadora do primeiro computador comercial, o UNIVAC), e o rato, inventado por Douglas Engelbart em 1968 e mais tarde, em 1986, popularizado pela Apple no seu Lisa.

Posteriormente, assistimos quilo que interpreto como um prelúdio desta nova tendência háptica: as tablets - "mesas digitais" que, substituindo ou complementando o rato, funcionando com uma caneta magnética. Desde o início adoptadas pelo burgo dos ilustradores e técnicos de CAD, populariza-se numa versão plástica, não-magnética, nos telemóveis-PDA com ecrã táctil.

Até que este ano, em 2007, Steve Jobs "anuncia" na Macworld Conference em que apresentou o iPhone:

"Now, how are we going to communicate this? We don’t want to carry around a mouse, right? So what are we going to do? Oh, a stylus, right? We’re going to use a stylus. No. Who wants a stylus. You have to get em and put em away, and you lose em. Yuck. Nobody wants a stylus. So let’s not use a stylus. We’re going to use the best pointing device in the world. We’re going to use a pointing device that we’re all born with — born with ten of them. We’re going to use our fingers. We’re going to touch this with our fingers."

Não sendo propriamente algo nunca visto - muitos já o faziam dispensando a caneta plástica - esta noção, a utilização dos dedos como interface pessoa-máquina, é particularmente importante por "empurrar" para a praça pública uma realidade que devia ser óbvia para os profissionais da nossa área: as interfaces hápticas (e não só, já agora) são demasiado minuciosas, demasiado detalhadas. É muito difícil utilizá-las com os dedos. Obrigam tal canetinha deprimente de que ninguém gosta. Yuck!

De volta ao tema: o que a Apple fez de inovador foi implementar a possibilidade de utilizar simultaneamente mais do que um dedo/caneta/whatever. Chamam-lhe multi-touch.

Mas... esperem lá... a Apple já usava algo do género nos trackpads dos seus portáteis... double finger => scroll. Bem, sim, mas aparentemente esta nova patente cobre não só "2 pontos" mas sim "2 pontos e a relação entre eles". Daí o "pinching", p.ex. o beliscar de uma foto para fazer zoom-out (e o movimente inverso para zoom-in).

Algo que outros também conseguiram, mas que aparentemente necessitam de mais recursos (incluindo legais, Apple?) para o fazer.

Para além destas mais visíveis, enumero outras, para todos os gostos e feitios:

Surgem-me duas conclusões:

Primeiro, que estamos perante um novo paradigma na interacção pessoa-computador (sim, todos estes são computadores, na verdadeira acepção da palavra). Um paradigma que saltou os laboratórios e as mentes que os pensaram e trabalharam e que foi deliciosamente colocado no "colo" do consumidor - basta ver a desenfreada corrida ao toque.

Segundo, que ainda há muito por explorar, muito por desenvolver. A meu ver, não nas superfícies de toque, que já parecem bastante sensíveis e reagentes, mas sim nas possibilidades de interacção com elas. Sim, Jobs, todos temos 10 dedos (nem todos, mas enfim... eh, eh, private joke), mas quantos podemos utilizar ao mesmo tempo e quantas combinações estamos mentalmente disponíveis para absorver e incorporar na nossa cognição?

A explorar também na interacção não só entre pessoas e hardware, mas também entre diferentes dispositivos. Como exemplo, a Surface reconhece objectos que são pousados na superfície (telemóveis, leitores de música digital, etc.), adaptando a interface e activando a respectiva comunicação.

Enquanto esperamos que a Hitachi nos presenteie com a sua interface cerebral (as a side note, aqui há uns anos, no âmbito do meu trabalho com o CERTIC, tive a surpresa e o previlégio de ver funcionar e experimentar uma interface cerebral - de certo bem menos avançada que a supra - como interface auxiliar para paraplégicos), será interessante observar o que nos espera enquanto não só profissionais de usabilidade mas, também, como consumidores.

Entretanto... keep clickin' :-)