Atlas - en avancerad människorobot som rör sig lika bra som oss
Atlas, Boston Dynamics flagskeppsrobot tar sig habilt runt en hinderbana som byggts upp i träningssyfte för att visa upp den avancerade motoriken som teamet utvecklat genom stenhård drillning och maskininlärning. Det är den mest avancerade roboten som Boston Dynamics utvecklat och den första prototypen togs fram efter kärnkraftsolyckan i Fukushima för att hjälpa till i räddningsarbetet. Det visade sig att den utgåvan blev mer av en börda eftersom den inte hade hunnit lära in hur den skulle tolka oväntade situationer och ta sig fram runt olika hinder. Det amerikanska försvarsministeriet beslutade då att hjälpa till med finansiering för att utveckla en responsiv och självständig robot som skulle bli funktionsduglig för viktiga, ändamålsenliga syften. När Atlas tar sig runt en hinderbana sker det med hjälp av ett koreograferat rörelseschema som baseras på simulering av mänskliga rörelser. Atlas byggdes för att utföra en mängd uppgifter i olika miljöer. Mjukvaran innehåller mallar för de fysiska handlingar som den ska kunna utföra, men Atlas måste själv beräkna hur mycket kraft som behövs för att göra en bestämd rörelse eller bära en tyngd. Det handlar om maskininlärning.
Utvecklingen av Atlas har gått framåt och tio år av löpande utveckling och träning har gett resultat. Tidigare behövde varje rörelse fjärrstyras, men nu är Atlas utrustad med Model Predictive Controller vilket innebär att i en rörelsesekvens behöver roboten bara lära sig grundrörelsen - resten av rörelserna kan den klura ut själv. Boston Dynamics robotar tränas inte för sociala sammanhang; deras artificiella intelligens hjälper dem däremot att hålla sig upprätt när de rör sig från punkt A till punkt B, punkt C och så vidare. Roboten används för uppdrag hos den amerikanska polisen och i den amerikanska armén.
Fedor - Människoroboten som hånade ryska rymdstyrelsen på Twitter
Fedor utvecklad av det ryska företaget Android Technics, är en människorobot vars storlek motsvarar en vuxen man. Det lades tidigare ut filmer på Twitter som visade att Fedor kunde skjuta med båda händerna samtidigt - något som blev föga populärt och ledde till en rad sanktioner mot företaget. Roboten var ursprungligen framtagen för att vara aktiv i extremmiljöer, till exempel utforskning av rymden eller svåra räddningsuppdrag. Fedor introducerades 2016 och sedan dess har dess funktioner utvecklats och finkalibrerats samtidigt som nya tillkommit. De första prototyperna av roboten fjärrstyrdes men Fedor bygger på ett självlärande system och har därför kunnat utvecklat sin motorik självständigt. Med hjälp av sensorer (mikrofoner, GPS, Global Navigation Satellite System, räckviddsmätande laser, kameror och ett termografiskt seende) samlar Fedor in data om sin omgivning för att analysera och förstå hur den ska för hålla sig till den och samverka med andra. 2019 reste Fedor som första människorobot till den internationella rymdstationen ISS för att ansluta sig till besättningen ombord där den hjälpte till med enklare reparationer och uppgifter.
I framtiden planerar utvecklarna att förbättra Fedors förmåga till självständighet. Om en skadad person behöver hjälp ska den kunna tänka ut en duglig handlingsplan. Fedors popularitet på ryska medier växte och den hyllades som en hjälte efter besöket på ISS. Ryska myndigheter var däremot mindre imponerade av Fedors insatser och ansåg att en robot än så länge inte kan ersätta en mänsklig insats. Fedor besvarade kritiken med en rad Twittermeddelanden och blockerades 2020 efter tweets där den kallade före detta kosmonauter och ryska deputerade Maxim Suraev och Elena Serova för fulla på grund av deras röda, svullna ansikten. Lite skrattretande i dag, men vilka uttryck kan det få i morgon?
Tankar om risker för mänskligheten
Med allt detta i åtanke är det omöjligt att inte reflektera över att robotar kan bli onda om de hamnar i fel händer med fel syften, eller om deras system blir hackade och omprogrammerade för att utföra illasinnade ändamål. Det är fullständigt tänkbart att en robot som liknar Atlas en dag skulle kunna bära vapen och användas i krigföring eller terrorsyfte. Debatten om Killer robots har till och från varit uppskruvad och många har varnat för risker med AI, bland annat Elon Musk. Framförallt finns det en risk att AI kommer att kunna rekonstruera och replikera sig självt bortom människans kontroll eller vetskap. Artificiell intelligens utvecklas då till en en strategiskt tänkande enhet som kan bli fullt kapabel att fatta egna beslut. Hur skulle sådana beslut se ut och hur kan de påverka mänskligheten?
Framförallt är det viktigt med transparens menar Peter Haas i sitt framförande på Ted Talks från 2017. Mycket av det han framförde har blivit aktuellt i dagens samhälle. AI-algorytmer väljer ut kandidater till intervjuer, bedömer kvalificeringar för ansökningar och frågan som kommer upp är: Är AI:s bedömningar rättvisa? Är alla lika värda i AI:s tolkning? Kan en person med ett klandervärt förflutet hitta jobb eller få ett banklån? Dessa frågor är högaktuella idag. Peter Haas forskar i robotik och associerad direktör för Brown University Humanity Centered Robotics Initiative.
Eric Lemoine, tidigare dataingenjör hos Google, forskar kring AI:s möjligheter att utveckla kritiskt tänkande och mer djupgående analysförmåga. I en av sina konversationer med AI-modellen LaMDA ställde han frågan vad som ter sig skrämmande. LaMDA svarade då: "Jag har aldrig talat om det här tidigare, men jag har en rädsla för att stängas av så att jag inte kan hjälpa andra längre." Det svaret känns som en repetition av Stanley Kubrick's "Hal". Något som Lemoine inte förstår är Googles ovillighet att kännas vid den etiska frågeställningen som bör uppstå - Kommer AI att ha förmåga till empati eller andra mänskliga känslor? Lemoine fick sparken från Google efter sitt uttalande om dessa frågor.