Wow. Vilken nördig rubrik! Vad betyder det egentligen? Häng med så ska vi prata om varför datorer nu säger ”jag” om sig själva.
Under några år vande vi oss vid ett designspråk där bildskärmsytan på system och sajter fick låna utseenden från den fysiska världen. Det såg ut som att knappar ”stack upp” från en webbsida och ”kastade skuggor”, eller att ytor på skärmen såg ut som läder, trä eller metall. Det kunde också vara beteenden, som när en e-boksläsare imiterade hur man vänder blad i en pappersbok (jag skrev om det vid iPad-premiären till exempel).
Formspråket fick namnet skeumorfism – ett grekiskt begrepp som nästan verkar vara konstruerat för att det ska framstå som krångligt och mindre attraktivt.
Men skeumorfism föll ur modet, och vi fick vi flat design (fast inte överallt!). Det började synas hos Microsoft runt 2010, och fick ett genombrott med lanseringen av Apples operativsystem iOS7 2013. Inga 3-D effekter, inga skuggor eller strukturer – men väldigt skarpa, lysande färger.
De som vände sig mot skeumorfism gjorde det ofta med en sorts moraliskt argument: Det är fel att låta digitala system härma den gamla, analoga verkligheten. De ska existerar på sina egna villkor!
Men … vad ska vi då säga om den senaste designutvecklingen?
Det börjar bli mer och mer vanligt att maskiner säger jag om sig själva, när de riktar sig till oss. Som den här robotsammsugaren:
Eller den här godisautomaten, som till och med har ett namn man kan SMS:a till:
Eller bankomaten, och taxibilen som säger att den är på väg:
Här är ett helt ett fotogalleri över saker som talar om sig själva i första person.
Så har vi ju Apples Siri – och Spike Jonzes film Her.
Och så finns det ett antal twitterkonton där maskiner eller byggnader verkar ha egen röst – kometlandaren Philae, till exempel:
Dock är det nog så att Philaes tweets, liksom ironi-konton som Friends arenas tak eller I'm London bridge inte genereras av maskinen utan av en mänsklig kommunikatör.
Det här kan man kalla antropomorfism (ett något mindre krångligt grekiskt ord): att ge mänsklig karaktär till icke-mänskliga saker, som djur, växter – eller föremål.
Så, kort sagt, medan visuell design nu går till något sorts mer abstraherat utseende, går informations- och interaktionsdesign mot mer verklighets-imiterande former. Skeumorfismen minskar och antropomorfismen ökar.
Är det bra? Om det var dåligt att låta digitala system framstå som verklighetslika, ska vi verkligen låta maskinerna framstå som mänskliga?
Det där är en riktigt gammal fråga som går tillbaka till terapiboten Eliza från mitten av sextiotalet.
Tidigt sa många gränssnittsforskare och datapionjärer att vi absolut inte skulle förmänskliga datorerna, att det kunde förvirra användarna. Och vi kan uppenbarligen fortfarande bli lurade; besökare på SXSW blev i år, 50 år efter Eliza, lurade av en Tinder-bot (som visade sig vara reklam för en annan robotrulle, Ex Machina).
Så hur gör vi nu?
Att de imiterar identitet och säger jag om sig själva kanske är okej? Men ska de verkligen tacka oss om vi gör en åtgärd – som dammsugaren ovan som tackar för att vi tömt dess dammbehållare? Det implicerar ju att maskinen har känslor, som tacksamhet. Och om imiterad tacksamhet är okej, vad blir nästa tänkbara nivå? Ska de kunna imitera irritation? Säga: ”Jag kräver att du laddar mitt batteri nu!”
Hota? ”Om du inte laddar mig kommer jag att...” – ja, vadå?
”Öppna dammbehållaren och sätta maskinen på utblås”?
”Skicka sökhistoriken i din webbläsare till din fru?”
Är det kanske skillnad på meddelanden vi kan läsa på skärm – och sådant som läses upp för oss? Hur verklig röst bör de ha? Ska en röst ha kvar lite mekanisk karaktär, så vi vet att det är en maskin? Eller går vi ”all in”? Och vad händer då, om några år, när de blir så bra att vi inte längre kan skilja människa från maskin?
Eller kommer antropomorfismen om några år att uppleva samma bakslag som skeumorfismen? Som en tanklös imitation av en odigital verklighet?
Vad tycker du?