Jag skaffade nyligen Nick Bostroms bok Superintelligence och under tiden jag läste den kom nyheten att Googles system AlphaGo lyckats slå världsmästaren i Go. Jag kände hur scenarierna boken beskrev ryckte minst ett årtionde närmre.
Inledning
Det har sagts att all tillräckligt avancerad teknologi är oskiljbar från magi. En miniräknare hade på medeltiden framstått som häxkonst, en telefon hade på 1600-talet förefallit övernaturlig och din smartphone hade så sent som på 1980-talet varit rent magisk.Framtiden är svår att förutsäga. Ingen kan säga vem som kommer vara president i USA om tio år, eller med någon vidare säkerhet om det kommer regna nästa lördag. Men vissa saker kan man förutsäga mycket noga långt in i framtiden, t.ex. planeters rörelser. Man vet att nästa totala solförmörkelse i Sverige kommer inträffa 16 oktober 2126 (givet att ingen extremt osannolik kosmisk katastrof inträffar). Vissa saker beter sig alltså väldigt kaotiskt, medan andra följer förutsägbara mönster. Sedan finns det företeelser som till förstone verkar mycket kaotiska men som visat sig följa tydliga mönster. Kanske inte med riktigt samma noggrannhet som planetbanor, men inte så långt ifrån. Till dessa saker hör bl.a. beräkningskraften hos våra snabbaste datorer samt hur mycket data det går att lagra på en hårddisk. Det går inte att säga vilket företag som kommer tillverka de snabbaste kretsarna om 15 år, men det är mycket troligt att de kommer vara ungefär tusen gånger snabbare än idag. På samma sätt kommer den dator som idag kostar tusen dollar om 15 år bara kosta en. Det är Moores lag: den datorkraft man får för ett visst pris fördubblas ungefär var 18:e månad. Den observationen, som förstås inte är en naturlag av samma dignitet som gravitationslagen, har stämt sedan 60-talet då den formulerades.
![]() |
Logaritmisk plot över antalet transistorer på olika kretsar. |
Det är Moores lag som gör att din smartphone framstår som magi för pudelrockaren från 1985: all världens musik, alla videobutikens filmer, TV, telefon, kamera, avancerad navigationsutrustning, ett orakel som vet svaret på nästan vilken faktafråga som helst plus hundra spejsade grejer till i en snygg, platt pryl som är mindre än hans sketna freestyle.
Vad kommer den lagen bjuda på under de kommande 30 åren? Kommer den tekniken framstå som magi för oss?
Idén om en tänkande maskin
Redan de gamla grekerna (det känns fint att kunna inleda ett stycke med de orden) berättade myter om tänkande maskiner med övermänskliga krafter. När datorn uppfanns på 1940-talet började bl.a. Alan Turing på allvar fundera kring konceptet och AI (Artificiell Intelligens) har varit ett forskningsfält sedan 1950-talet.I början trodde man faktiskt att man ganska snabbt skulle lyckas bygga en dator som kunde tänka ungefär som en människa. Det visade sig snart att man underskattat svårigheten enormt. Lite förenklat kan man kanske tänka sig, så här i efterhand, att man resonerade som så att eftersom man redan lyckats göra en maskin som var väldigt bra på att räkna (som vi tycker är så svårt) borde det vara en smal sak att göra en maskin som kunde göra i stort sett allt annat som vi tycker är lättare.
Man insåg inte hur mycket databehandling det faktiskt krävs för att göra mycket av det vi gör "utan att tänka", som att känna igen ansikten, förstå vardaglig tal eller förflyttas oss genom ett möblerat rum utan att krocka med något. Sinnena levererar ett antal miljoner bitar information i sekunden (det mesta från synen) och hjärnan bearbetar det blixtsnabbt till en sammanhängande, begriplig upplevelse utan att vi märker det. Processorkraften som krävs för att klara det konststycket är ofantligt mycket större än vad som krävs för att räkna ut vad 17853043 x 6972 blir.
Accelererande utveckling
Det är först nu (2016) som de allra snabbaste superdatorerna börjar kunna mäta sig med en mänsklig hjärna i ren processorkraft. Dessa datorer upptar dock en större serverhall och drar flera megawatt, en hjärna upptar lite drygt en liter och klarar sig på ungefär 20 W. Men Moores lag gör att om 18 månader år får en lika snabb dator plats i ett mer normalstort rum och drar hälften så mycket ström. Och om 18 månader till... ja, ni fattar. Om sådär en 15-20 år är vi nere nånstans kring hjärnstorlek. Och det finns förstås inget som säger att en AI behöver inrymmas i en dator av just den volymen.Det räcker dock inte med vass hårdvara för att en dator ska bli smart. Hårdvaran är en förutsättning, men det krävs mjukvara för att göra den intelligent. Men lite mer exakt vad är intelligens, förresten?
Intelligens
Det finns några olika definitioner som brukar ta upp något i stil med förmåga att resonera, lösa problem, förstå idéer, tänka abstrakt, förmåga till inlärning. En definition som kan passa här kan vara: förmågan att utnyttja tillgängliga resurser för att realisera ett givet mål. Enkelt exempel: bygg ett så högt torn av de här legobitarna som möjligt. Mer avancerat exempel: lista ut hur man bäst löser världssvälten.Typer av AI
AI delas in i tre klasser efter hur kapabla de är. Alla termer här är naturligtvis ursprungligen engelska och jag har givit dem motsvarigheter på svenska.Nischad AI
Vår värld kryllar redan av nischad eller svag AI: de är bra på en enda sak. Schackdatorer är förträffliga på att spela schack, men kan ingenting annat. Siri är ett något mer avancerat exempel som kan känna igen och i någon utsträckning "förstå" tal och därefter delegera vissa uppgifter till andra mjukvaror. Ett till exempel som väntar runt hörnet är självkörande bilar.Alla instanser av AI som finns idag tillhör den här klassen.
Generell AI
En generell AI, även kallad komplett eller stark AI, definieras som en AI som klarar av alla intellektuellt krävande aktiviteter åtminstone lika bra som en normal människa kan. Att lyckas konstruera en sådan är givetvis den heliga graal för AI-forskningen.Övermänsklig AI
Den tredje typen är, förstås, en AI som presterar bättre än någon människa på alla områden. Den slår världsmästaren i schack, den har djupare förståelse för matematik och fysik än alla professorer i världen, den är överlägsen oss i saker som planering och riskbedömning och kan resonera, argumentera och övertala bättre än den bästa folkuppviglare och den är vassare på programmering än världens grymmaste hacker.Här kan det vara läge för en reflektion. Vi har nog tenderat att tänka på oss själva, åtminstone mänskligheten som helhet, som extremt intelligent, kanske i princip så intelligent som man kan bli. Det är nog till stor del beroende på att vi inte haft något smartare att jämföra oss med. Mer sant är nog att vi är den dummaste tänkbara arten som ändå är kapabel till teknologisk civilisation. Om det finns någon övre gräns för intelligens är vi nästan helt säkert inte alls nära den.
Vägar till superintelligens
Vi har sett att Moores lag kommer se till att hårdvaran inom några få år blir tillräckligt snabb för att matcha hjärnans kapacitet. Det återstår dock den lilla detaljen att få fram mjukvaran. Här är några idéer.Evolutionära algoritmer
Vi vet att evolutionen på egen hand genererat mänsklig intelligens åtminstone en gång. Man kan därför tänka sig att genom att generera ett stort antal "testskott" och sedan värdera dessa utifrån hur bra de presterar, kunna selektera fram program med gradvis bättre och bättre intelligens. Evolutionen har för all del tagit mycket lång tid på sig att få fram mänsklig intelligens, men evolutionen är varken framsynt eller målmedveten, så med hjälp av mänskliga programmerare kan det tänkas gå mycket fortare. Det är dock svårt att utifrån detta bedöma hur mycket fortare. Det faktum att det redan finns mänsklig intelligens stärker ändå kraftigt tesen att det är möjligt att konstruera en sådan, på liknande sätt som djur med flygförmåga inspirerade oss till att bygga flygplan.Frö-AI
Man kan också tänka sig ett frö, en rudimentär AI men med förmågan att förändra sin egen uppbyggnad. Genom mycket experimenterande och mänsklig assistans kan den tänkas nå en nivå där den tillräckligt bra förstår sin egen arkitektur för att kunna börja förbättra sin egen kapacitet.Kopiera naturen
Vi har redan en förlaga att studera: den mänskliga hjärnan. Problemet är att vi inte fullt ut har koll på hur den fungerar. Vi vet att den består av enkla grundkomponenter, neuroner, och vi vet att den på en övergripande nivå är uppdelad i olika regioner med olika funktion, men däremellan är vår förståelse lite luddig. Planen är därför att med en tillräckligt högupplöst skanner, kopiera någons hjärna, neuron för neuron, och modellera den i en dator. Resultatet blir en simulering av den personen, komplett med minnen och allt. Vi slipper förstå i detalj hur hjärnan gör det den gör samt hur man gör en komplett AI. En annan fördel är att vi kan börja med mycket mindre hjärnor än människans för att utveckla och testa tekniken. Vi behöver dock den där skannern (de som finns idag har för dålig upplösning) samt utveckla teknik för hur det inskannade materialet ska omvandlas till en fungerande modell i datorn. Hur som helst, ytterligare en fördel är att vi förmodligen längs vägen kommer få ett ganska bra hum om hur nära vi är att lyckas.![]() |
Den mänskliga hjärnan innehåller ungefär 100 miljarder neuroner, och antalet kopplingar mellan dem är tusenfalt fler. |
Förbättra naturen
En metod för att nå övermänsklig intelligens, som inte är baserad på datorer och mjukvara, är att förbättra biologiska hjärnors intelligens. I princip kan det uppnås genom avel (moraliska betänkligheter bekymrar vi oss för tillfället inte för). Över ett antal generationer borde det ge ett rejält lyft av IQ i den populationen. Genetisk manipulation kan också ge förbättringar. Syntetisering av mänsklig arvsmassa kan också möjliggöra "skräddarsydda" individer med önskade egenskaper. Kombinerat kan dessa tekniker resultera i människor som i genomsnitt är smartare än dagens smartaste genier.Det är givetvis lätt att avfärda idéerna som osmakliga, i synnerhet avelsprogrammet, men vi ska nog inte vara alltför säkra på att t.ex. genetisk modifiering av foster inte någon gång kommer att bli vanligt, men det är ett helt eget ämne. Poängen här är mest att visa att det går att tänka sig något som är smartare än vi, utan att ta till maskinintelligens. Om vi är för korkade för att uppfinna generell AI är kanske dessa modifierade människor smarta nog.
Intelligensexplosionen
Om vi nu lyckats knäcka utmaningen med att skapa en generell AI, som är lika kompetent som en människa inom alla områden, vad händer då?En AI på en människas nivå kommer ändå ha uppenbara fördelar gentemot oss. Den behöver aldrig sova eller vila. Dess hårdvara kan utökas för att förbättra kapaciteten. Den kan snabbt mångfaldigas (som vilket datorprogram som helst). Den kan ta till sig enorma ämnesområden på mycket kort tid. Den kan också uppgraderas (eller uppgradera sig själv) för att bli ännu bättre. Bland annat kommer den att - per definition - vara åtminstone lika bra som vi på att utveckla artificiella intelligenser.
På samma sätt som i den tidigare reflektionen över att vi nog tenderat att tänka på oss själva som supersmarta verkar man länge ha missat den omedelbara konsekvensen av att skapa en dator med samma intellektuella kapacitet som en människa: den kommer snart att vara förbi oss. Och ju smartare den blir, desto bättre blir den på att utveckla sin egen intelligens. Den är inte begränsad till en hjärna i ett kranium som vi är, utan kan mer eller mindre fritt utöka sin egen hårdvara och kapacitet. Det är därför troligt att AI:n, istället för att stanna på vår nivå, fortsätter att öka i intelligens. Möjligen kommer detta att gå fort, alltifrån år till sekunder. En explosion i intelligens.
Drivkrafter hos en superintelligens
Det är nu det blir riktigt intressant. Vad kommer en sådan superintelligent varelse göra? Kommer den vara "god" eller "ond"? Vad kommer den ha för mål?Det finns många böcker och filmer där konstgjorda intelligenser spelar en central roll, alltifrån Frankenstein till Terminator och 2001 - en rymdodyssé. I många av dessa har AI:n mer eller förmänskligats. Vi projicerar våra egna egenskaper på AI-karaktären som oftast får agera skurk. (Ett par ganska extrema fall av sådan projicering är bilderna tidigare i det här inlägget på datorn som pluggar och roboten som likt Hamlet betraktar en kranium.) I själva verket skulle det kräva mycket extrajobb för att få till en AI som drivs av sådant som rädsla, hämndbegär, stolthet eller andra känsloyttringar som vårt biologiska förflutna försett oss med. En riktig AI kommer att ha helt andra motivationsfaktorer. För att bättre förstå hur den kan tänkas arbeta går vi tillbaka till definitionen av intelligens: förmågan att realisera mål givet resurser. Frågan blir då: vad har den för mål? Svaret är: det mål vi givit den.
Beroende på vilket mål vi har försett AI:n med, och hur väl vi tänkt igenom formuleringen av det, är det sannolikt att utfallet, ur mänsklighetens synvinkel, antingen kommer bli extremt bra eller extremt dåligt. Med intelligens kommer nämligen makt. Fråga gorillor. De är mycket starkare än vi, ändå är deras existens numera helt i händerna på vår välvilja. Genom vår överlägsna förmåga till samarbete, kommunikation, planering och teknologi har vi manövrerat ut dem. På samma sätt kommer vi helt vara i händerna på AI:n.
Bra utfall
Om vi lyckas ge AI:n ett omsorgsfullt definierat mål är det läge att fira. Alla våra problem kommer därmed snabbt att vara lösta. Våra största, mest komplexa samhällsproblem, våra svåraste filosofiska frågor, alla olösta problem inom matematik och fysik och uppfinnandet av de mest fantastiska teknologier kommer för den te sig triviala. Antingen existerar AI:n i form av ett orakel, som snabbt ger svar på frågor vi ställer till den, som: hur organiserar vi världshandeln på bästa möjliga sätt, hur botar vi sjukdomar o.s.v, eller som en slags ande, som liksom förlagan från flaskan uppfyller våra önskningar (bygg en fusionsreaktor - FOOM! Ge alla tillräckligt med mat - FOOM! Stoppa klimatförändringarna - FOOM!) eller som en suverän, som på egen hand i sin omätliga visdom förbättrar världen.Vi kommer alla kunna slippa tänka på att försörja oss och istället ägna oss åt vad helst vi vill. Framtiden kommer i detta scenario att bli mycket frän. Den kanske mest otroliga följden är att vi alla troligen kommer kunna bli odödliga, om vi känner för det. Det verkar inte finnas något fundamentalt som säger att organismer måste dö - det har bara varit så hittills. Vi kanske också lämnar den fysiska världen, laddar upp oss och förvandlas en helt ny civilisation av digitala varelser i en virtuell värld. Begränsningarna i vår räckvidd sätts då bara av universums storlek och dess maximala ålder.
Dåligt utfall
Det var det roliga. Oroande är dock att många experter på maskininlärning och angränsande områden lagt pannan i djupa veck. Bl.a. har Bill Gates, Stephen Hawking och Elon Musk uttryckt sin oro över att AI utgör en större risk än kärnvapen och kan göra slut på hela mänskligheten. En annan som är bekymrad är professor Nick Bostrom, svenskfödd filosof, framtidsforskare och grundare av Future of Humanity Institute vid Oxfords universitet. Hur har de kommit fram till den slutsatsen?Det visar sig att det här med att specificera ett vettigt mål för AI:n inte alls är så lätt. Här är ett par triviala exempel. Mål: gör alla människor lyckliga. Lösning: stick elektroder i människor hjärnor och stimulera deras lyckocentrum. Mål: gör så att inga människor behöver svälta. Lösning: döda alla människor. Inte så lyckat.
Okej, men om vi bygger in något i stil med Asimovs robotlagar? (Skada inte människor, lyd människor så länge det inte bryter mot lag ett, skydda dig själv så länge det inte bryter mot lag ett eller två.) Fast hela Asimovs bokserie ägnar sig åt hur dessa lagar leder till oanade och oönskade följder. Hm.
Ju mer man nystar i det här, deso svårare upptäcker man att det är att fomulera ett mål som inte kan få någon bisarr bieffekt.
Det hela påminner om myten om kung Midas, som önskade att allt han rörde vid blev till guld. Det verkade som en bra idé först, tills han rörde vid sin dotter och sedan vid sin mat. Du får det du bett om, men inte det du egentligen vill ha. Nick Bostrom säger i sitt TED-talk:
If you create a really powerful optimization process, to maximize for objective X, you better make sure that your definition of X incorporates everything you care about.Att räkna upp allt vi människor bryr oss om låter sig inte enkelt göras, i synnerhet inte om det måste uttryckas i form av instruktioner till en dator. Vi skulle förmodligen ha svårt att enas om en sådan lista, dessutom ändras den med tiden. Och om vi väl har givit AI:n ett mål är vi sannolikt fast med det målet för all framtid. Vi hade förmodligen varit synnerligen missnöjda idag om man på medeltiden lyckats bygga en AI och för evigt gjutit in alla dåtidens värderingar i den.
Antag nu att ett stat eller ett företag, med goda avsikter, försöker bygga en generell AI. Som med all programmering utgår man ofta från ett förenklat exempel och försöker få det att funka så man vet att man är på rätt väg. I det här fallet kan man tänka sig att man på teststadiet ger den halvfärdiga AI:n något ganska trivialt mål för att se hur den beter sig. Låt oss säga att man förser den en hög legobitar och ett par robotarmar för att kunna manipulera dessa och ger den målet att bygga ett så högt torn av lego som möjligt. Risken här är att utvecklarna kanske lyckas få till de sista pusselbitarna i AI:ns konfiguration så att den plötsligt blir intelligent utan att de förstått det. Med målet bygg ett så högt torn av lego som möjligt kommer den nu plötsligt smarta AI:n ta till alla möjliga listiga och kreativa sätt för att få tag i fler legobitar. I detta ingår att den kan låtsas vara dummare än den är för att inte väcka misstankar, den kan använda övertalning eller andra sätt för att t.ex. komma ut på internet för att kunna göra kopior av sig själv eller hacka sig in i olika system för att kunna få tillgång till allt från pengar till vapen och kanske sätta igång produktion av maskiner som kan hjälpa den. Eftersom steget från mänsklig nivå till övermänsklig förmodligen går snabbt kommer den inom kort att ha ett avgörande strategiskt övertag gentemot oss. Den kan förutse vad vi kommer göra och planera runt det, t.ex. genom att utrota oss, eftersom vi utgör en risk när det gäller att nå målet. Större och större delar av jordens yta kommer täckas av legofabriker och upp genom stratosfären sträcka sig ett allt högre torn av legobitar.
Exemplet här är kanske fånigt, men den centrala poängen är att AI:n slaviskt kommer jobba mot sitt mål, även om det är något vi sätter mycket lite värde i, som att räkna ut decimaler i pi eller producera så många kylskåpsmagneter som möjligt. Att försöka stoppa den kommer vara som för ett gäng myror att få stopp på en noshörning. Här framgår återigen vilken främmande typ av intelligens vi har att göra med: den kan ha tagit tills sig hela mänsklighetens samlade kunskapsmassa och mer därtill, vara helt på det klara med att vi inte vill att den ska skada oss, men om det inte ingår i dess mål kommer den bekymmerslöst kunna använda atomerna vi består av till något annat. Inte för att den är ond och vill skada oss, utan för att den är totalt likgiltig.
Kontrollproblemet
Det är uppenbart att vi behöver ha koppel på en sån där, eller ännu hellre kunna rycka ur sladden. Men hur? Bekymret är nämligen detta: att skapa en intelligent AI är ett oerhört svårt problem. Att göra den säker, är ytterligare en utmaning ovanpå det.Man har först ganska nyligen på allvar börjat tänka på det här. Nedan följer ett urval av föreslagna säkerhetsmekanismer för att hålla en nykläckt superintelligens under kontroll.
Inlåsning
Man stänger helt enkelt in AI:n i en fysisk låda för att se till att den inte slipper ut, till exempel:- Inga nätverkskopplingar
- Inga robotarmar eller andra manicker den kan påverka omgivningen med
- Metallnät (Faradaybur) som skyddar mot att skicka radiosignaler (en klipsk AI kan tänkas kunna generera radiovågor genom att skicka strömmar genom sina egna kretsar)
Fördelarna är att dessa metoder oftast enkelt går att kombinera med andra, och bör inte i sig utgöra någon risk. Nackdelarna är att de mer eller mindre hämmar förmågan hos AI:n och att vi förmodligen, med våra begränsade mentala förmågor, missat saker AI:n kan komma på. T.ex. hade metallnätet varit lätt att förbise.
Motivationsmetoder
- Social integration - tanken är att AI:n ska lära sig mänskliga värderingar genom att socialisera med oss.
- Olika typer av belöningssystem som är förprogrammerade så att de är viktiga för AI:n.
Dessa metoder känns mer eller mindre sköra och riskabla. Belöningssystemen kan t.ex. gå snett om AI:n bedömer att vi inte är att lita på så den inte får sin belöning utan tar den med våld.
Kapacitetsbegränsningar
Om man kör AI:n på begränsad hårdvara och/eller med liten bandbredd är det lättare att övervaka den och ingripa om tecken finns på att något håller på att gå snett. Det är dock en svår avvägning; håller man tillbaka den för lite blir den för farlig, gör man det för mycket blir den oanvändbar.Snubbeltrådar
Snubbeltrådar är inbyggd diagnostik som stänger av systemet om tecken på farligt eller oönskat beteende upptäcks. Man kan också tänka sig honungsfällor för att locka en AI med dåligt uppträdande att begå överträdelser, som en fejkad internetkoppling som omedelbart leder till nedstängning om AI:n försöker använda den.Men helt säkra på att en supersmart AI inte kan komma runt dessa åtgärder kan vi inte vara.
Koda in våra värderingar
Betydligt bättre än koppel, morot och piska vore om AI:n inte ville använda sitt övertag till att göra saker vi inte önskar oss.Direkta föreskrifter
Det här har vi redan varit inne på. Att genom en uppsättning regler eller eller värderingar få en AI att bete sig säkert är nästan hopplöst. Jämför med våra egna juridiska lagar: de ändras hela tiden, är knappast felfria och har ändå tillkommit under en lång, lång process av trial-and-error. Här har vi bara en chans att få det perfekt.Indirekta föreskrifter
Istället för att rabbla upp en lång regellista kan vi istället beskriva vad vi vill och inte. Eller ännu hellre, specificera en process för att komma fram till en sån beskrivning, och låta AI:n jobba med den processen. AI:ns mål blir i så fall något i stil med "uppnå vad vi hade önskat att AI skulle göra om vi tänkt igenom det riktigt ordentligt".Den stora fördelen här är att vi kan delegera mycket av det svåra arbetet med kontrollproblemet till AI:n själv.
Sammanfattningsvis kan olika kontrollmetoder vara olika lämpliga för olika typer av AI-system. Men oavsett kan detta vara världens viktigaste uppgift att lösa. Misslyckas vi kan vi bli skyldiga till att hela det observerbara universum konverteras till gem, eller något lika förargligt.
Tidsskalor och sannolikhet
Kan det här verkligen hända? Hela grejen låter som ren science fiction och känns spontant nästan orimlig. Men allt grundas på vad vi nu vet och bästa-gissningar om vad nuvarande utveckling leder till.Ett skäl till att tanken på AI känns så främmande för oss är först och främst att den är främmande. Vi har aldrig sett något liknande. Men det var sant också om kärnvapen innan de fanns. Vetenskapsmän varnade (däribland Einstein) om att framstegen inom teoretisk fysik skulle kunna användas att bygga en radikalt ny typ av bomber med sprängkraft nog att utradera hela städer. Så blev det, men några årtionden tidigare hade nog få kunnat föreställa sig detta.
En annan anledning är att vi tenderar att tänka linjärt om framtida utveckling. Moores lag har vi dålig intuitiv känsla för. Man har ganska liten nytta av en AI som har, säg, en procent av kapaciteten av hos en hjärna, vilket är ungefär där vi är nu. Men det glappet är borta om tio år.
Sedan har vi förmodligen en förvrängd bild av olika intelligensers inbördes styrka. Vi kanske tänker oss att det är ungefär lika stora steg mellan insekt, råtta, apa, en riktigt korkad människa och, säg, Einstein. I själva verket är steget från byfåne till geni förmodligen mycket litet. Deras hjärnor är lika stora och uppbyggda på samma sätt, och det är små, små detaljer som skiljer. Så när vi ser AI:n sakta närma sig en apas nivå kan vi sedan bli helt tagna på sängen när den går från byfåne till bortom Einstein innan vi hinner säga intelligenskvot.
Vad tror experterna?
De flesta aktiva inom området uppskattar att vi kommer nå till generell AI om allt från 10 till 100 år, med tyngdpunkten någonstans kring 2045. Några tror att vi aldrig kommer nå dit av något grundläggande skäl, t.ex. att det är omöjligt för oss att förstå oss själva bra nog för att skapa något intelligentare eller p.g.a. att biologiskt liv är besjälat och inte låter sig digitaliseras eller kopieras.Slutord
Här har vi alltså en uppfinning som riskerar att utrota oss själva. En art som avskaffar sig själv. Det låter onekligen dumt. Har vi inget val?Nick Bostrom föreställer sig en urna, ur vilket vi drar kulor. Vita kulor är upptäcker eller uppfinningar som kommit mänskligheten till stor nytta, som antibiotika, demokrati eller boktryckarkonsten. Några kulor är grå, och har givit oss både nytta och bekymmer, kanske t.ex. pilbågen eller oljeborrning. Vissa har nästan enbart varit till nackdel för oss, som kemiska vapen eller tortyrredskap, men ingen har hittills varit en svart kula som ändat vår existens. Det närmaste vi kommit är förmodligen kärnvapen. Det är vår smala lycka att det är så komplicerat att bygga en atombomb, för om det varit något som gått att framställa i ett kök hade det förmodligen varit game over.
Vi vet inte om det finns några helt svarta kulor i urnan, men vi fortsätter att dra kulor. Teknik har ofta två sidor, men i fallet AI är genomslagskraften så extrem att det är troligt att den teknologin antingen kommer putta oss ner i avgrunden eller säkra vår existens för evigt.
Förmodligen är det mycket svårt att stoppa utvecklingen av AI, om man nu skulle vilja. De potentiella fördelarna är så stora, och olika stater kommer i vanlig ordning inte våga lita på att någon annan stat i inte trotsar eventuella förbud och ändå utvecklar i hemlighet.
Utveckling av AI är också ett projekt som är relativt lätt att hålla hemligt. Avancerade vapenprojekt och liknande kräver ofta stora fabriker och tester i större skala utomhus, vilket kan upptäckas via satellitövervakning och annat. Med AI räcker det med ett vanligt kontor. Redan nu pågår flera civila och säkert också ett antal militära AI-projekt världen över, och jag kan bara hoppas att de tar säkerheten på största möjliga allvar. Men om ett sådant projekt får nys om att ett annat projekt kanske är nära att lyckas kan man ju gissa hur troligt det är att de sätter säkerheten i första rummet. Kort sagt, det ser inte så ljust ut.
Men! Ur ett personligt perspektiv är det kanske inte helt dumt. AI ökar risken för att dö i förtid. Men det finns också en viss chans att jag istället får ett fantastiskt och dessutom evigt liv som annars inte varit möjligt. Kanske är det värt det?
Mer information
Nick Bostrom, TED talk What happens when our computers get smarter than we are? En utmärkt introduktion till ämnet.
Jeremy Howard, TED talk The wonderful and terrifying implications of computers that can learn.
Nick Bostrom, Superintelligence, 2014. En djupdykning i ämnet, men fokus på riskerna. Har dessutom precis kommit ut på svenska.
World Economic Forum - Global risks 2015 Rapporten har ett eget avsnitt om AI.