De kneep van de Google Pixel voor assistent was een knop zonder knop

De Pixel 2 is een telefoon van bijna vijf jaar oud, maar hij introduceerde een functie die ik elk jaar meer en meer mis. Het heette Active Edge en je kunt de Google Assistent oproepen door gewoon in je telefoon te knijpen. In sommige opzichten is het een ongewoon idee. Maar het gaf je in feite iets dat je op moderne telefoons erg mist: een manier om fysiek met de telefoon te communiceren om gewoon iets te krijgen gedaan.

Als je naar de zijkanten van de Pixel 2 en 2 XL kijkt, zie je niets dat erop wijst dat je iets speciaals vasthoudt. Natuurlijk is er een aan / uit-knop en een volumeknop, maar verder zijn de zijkanten schaars. Knijp echter goed in de blote randen van de telefoon en een subtiele trilling en animatie zullen worden afgespeeld, terwijl de Google Assistent vanaf de onderkant van het scherm verschijnt, klaar om naar je te gaan luisteren. U hoeft de telefoon niet te wekken, fysieke of virtuele knoppen lang ingedrukt te houden of op het scherm te tikken. Je knijpt en begint te praten.

Als je naar de zijkanten van de Pixel 2 kijkt, zou je nooit raden dat het eigenlijk een knop is.
Foto door Amelia Holowaty Krales / The Verge

We zullen het zo meteen hebben over hoe nuttig dit is, maar ik wil niet verdoezelen hoe cool het aanvoelt. Telefoons zijn stijve objecten gemaakt van metaal en plastic, en toch kan de Pixel zien wanneer ik meer druk uitoefen dan wanneer ik hem gewoon vasthoud. Volgens een oude iFixit-demontage wordt dit mogelijk gemaakt door een paar rekstrookjes die aan de binnenkant van de telefoon zijn gemonteerd en die de altijd zo lichte buiging in de behuizing van je telefoon kunnen detecteren wanneer je erin knijpt. Voor de goede orde, dit is een verandering die mijn menselijke zenuwstelsel niet kan oppikken; Ik kan niet zeggen dat de telefoon helemaal buigt.

Of je Active Edge nuttig vond, kwam waarschijnlijk neer op of je het leuk vond om Google Assistent te gebruiken, zoals geïllustreerd door deze Reddit-thread. Persoonlijk was de enige keer dat ik ooit echt dagelijks een stemassistent gebruikte, toen ik de Pixel 2 had, omdat deze letterlijk bij de hand was. Het ding dat het maakte dus handig is dat het knijpen in principe altijd werkte. Zelfs als je in een app zat die de navigatieknoppen verborg of het scherm van je telefoon helemaal uit was, deed Active Edge nog steeds zijn werk.

Hoewel dat het uiterst nuttig maakte voor het opzoeken van leuke feiten of het doen van snelle berekeningen en conversies, zou ik zeggen dat Active Edge zoveel nuttiger had kunnen zijn als je het opnieuw had kunnen toewijzen. Ik vond het leuk om de assistent te hebben, maar als ik mijn zaklamp met een knijpbeweging had kunnen aanzetten, had ik hoe dan ook direct toegang tot de belangrijkste functies van mijn telefoon.

Deze versie van de functie bestond echt. HTC’s U11, die een paar maanden voor de Pixel 2 uitkwam, had een vergelijkbare maar meer aanpasbare functie genaamd Edge Sense. De twee bedrijven werkten samen aan de Pixel en Pixel 2, wat verklaart hoe deze op de toestellen van Google terecht is gekomen. Datzelfde jaar kocht Google het mobiele divisieteam van HTC.

Active Edge was ook niet de eerste poging van Google om een ​​alternatief te bieden voor het gebruik van het touchscreen of fysieke knoppen om je telefoon te bedienen. Een paar jaar voor de Pixel 2 liet Motorola je de camera openen door je telefoon te draaien en de zaklamp aan te zetten met een karate-kotelet – niet anders dan hoe je muziek schudde op een iPod Nano uit 2008. De camerasnelkoppeling kwam tot stand in de relatief korte tijd dat Google Motorola bezat.

Naarmate de tijd verstreek, gingen telefoonfabrikanten echter verder weg van de mogelijkheid om toegang te krijgen tot een paar essentiële functies met een fysieke actie. Neem bijvoorbeeld mijn dagelijkse chauffeur, een iPhone 12 Mini. Om Siri te starten, moet ik de aan / uit-knop ingedrukt houden, die belast is geworden met verantwoordelijkheden sinds Apple de startknop heeft verwijderd. Om de zaklamp aan te doen, iets wat ik meerdere keren per dag doe, moet ik het scherm wakker maken en de knop in de linkerhoek ingedrukt houden. De camera is iets handiger, toegankelijk met een veeg naar links op het vergrendelscherm, maar het scherm moet nog steeds aan staan ​​om dat te laten werken. En als ik dat echt ben gebruik makend van de telefoon, is de gemakkelijkste manier om toegang te krijgen tot de zaklamp of camera via het Control Center, waarbij u vanuit de rechterbovenhoek naar beneden veegt en probeert een specifiek pictogram uit een raster te kiezen.

Met andere woorden, als ik opkijk van mijn telefoon en zie dat mijn kat iets schattigs doet, is hij misschien heel goed gestopt tegen de tijd dat ik de camera daadwerkelijk opendoe. Het is niet zo dat het moeilijk is om de camera te starten of de zaklamp aan te zetten – het is gewoon zo veel handiger als er een speciale knop of knijpbeweging zou zijn. Apple erkende dit zelfs even toen het een batterijhouder voor de iPhone maakte met een knop om de camera te starten. Een paar seconden die hier of daar worden bespaard, tellen op tijdens de levensduur van een telefoon.

Om het punt te bewijzen, hier is hoe snel het starten van de camera is op mijn iPhone versus de Samsung Galaxy S22, waar je kunt dubbelklikken op de aan / uit-knop om de camera te starten:

Gif met de camera van een iPhone die wordt gestart met de snelkoppeling naar het Control Center en de camera van een Samsung S22 die wordt gestart met een druk op de knop.  De S22 lanceert zijn camera een seconde of twee sneller dan de iPhone.

Je hoeft minder na te denken als je op een knop kunt drukken om de camera te starten.

Geen van beide telefoons kan schermopnames en previews van de camera goed aan, maar de S22 opent zijn camera-app voordat ik zelfs maar op het camerapictogram op de iPhone heb getikt.

Helaas zijn zelfs de telefoons van Google niet immuun voor het verdwijnen van fysieke knoppen. Active Edge verscheen niet meer op Pixels met de 4A en 5 in 2020. Samsung heeft ook een knop afgeschaft die ooit was meegeleverd om een ​​virtuele assistent op te roepen (wat tragisch genoeg Bixby was).

Er zijn pogingen geweest om virtuele knoppen toe te voegen die u activeert door interactie met het apparaat. Apple heeft bijvoorbeeld een toegankelijkheidsfunctie waarmee je op de achterkant van je telefoon kunt tikken om acties of zelfs je eigen miniprogramma’s in de vorm van snelkoppelingen te starten, en Google heeft een vergelijkbare functie toegevoegd aan Pixels. Maar om heel eerlijk te zijn, heb ik ze gewoon niet betrouwbaar genoeg gevonden. Een virtuele knop die bijna nooit werkt, is geen geweldige knop. Active Edge werkte vrijwel elke keer voor mij, ondanks het feit dat ik een stevige OtterBox op mijn telefoon had.

Het is niet zo dat fysieke controles op telefoons helemaal verdwenen zijn. Zoals ik eerder al zei, laat Apple je dingen als Apple Pay en Siri starten door een reeks tikken of drukken op de aan / uit-knop, en er is geen tekort aan Android-telefoons waarmee je de camera of andere apps kunt starten door tweemaal op de aan / uit-knop te drukken knop.

Ik zou echter willen beweren dat een of twee sneltoetsen die aan een enkele knop zijn toegewezen ons geen gemakkelijke toegang kunnen geven tot alles wat we zou moeten gemakkelijk toegang hebben tot. Voor alle duidelijkheid, ik eis niet dat mijn telefoon volledig bedekt is met knoppen, maar ik denk dat grote fabrikanten een richtsnoer moeten nemen van telefoons uit het verleden (en, ja, van kleinere telefoonfabrikanten – ik zie jullie Sony-fans) en brengen minstens één of twee fysieke snelkoppelingen terug. Zoals Google heeft laten zien, vereist dat niet noodzakelijkerwijs het toevoegen van een extra fysieke sleutel die waterdicht moet worden gemaakt. Iets eenvoudigs als knijpen kan een knop zijn waarmee gebruikers snel toegang krijgen tot functies die zij – of in het geval van de Pixel, Google – essentieel achten.

Leave a Comment