4 sep. 2017

Samtidigt i Göteborg...

...pratar man om existentiell risk. "Alla civilisationer som klarar sig liknar varandra, varje misslyckad civilisation är misslyckad på sitt eget vis" skulle man kunna sammanfatta det som. Eller i alla fall på tolv vis.

Det är Olle Häggström som dragit igång ett tvåmånaders gästforskarprogram som invigs idag med ett föredrag av Anders Sandberg. Detta följs av ett två-dagars symposium på torsdag och fredag, som låter hur intressant som helst. Men nej, jag måste jobba i Stockholm...

Om ni undrar vad det hela handlar om hade DN en stort uppslagen artikel på söndagen: Vi vet för lite om det som hotar vår existens. Ni kan också titta på nedanstående filmsnutt med Max Tegmark, om ett av de tänkbara hoten mot mänsklighetens existens. Filmsnutten har gjorts med sponsring av the Future of Humanity Institute at University of Oxford, där tidigare nämnde Sandberg forskar. Slutligen har Olle Häggström skrivit vad som förmodligen är det nuvarande standardverket inom fältet - köp, läs och lär.

16 kommentarer:

Lennart W sa...

Och vill man av någon anledning inte köpa Häggströms bok, så finns ju även Life 3.0: Being Human in the Age of Artificial Intelligence av Max Tegmark.

Annars är det kanske mer galna maktfullkomliga ledare med kärnvapen som oroar, just nu. Och som kanske ändå är ganska lika. Fire and fury!

Anders Bergdahl sa...

nu är vi ju så larvigt långt borta från självmedvetna och intentionala system att det ter sig lite larvigt att ödsla tid på den frågan.. speciellt när vi har klimathot, religionens återkomst och trump att oroa oss över..
Inom AI är det helt enkelt så att det är ett programmeringsproblem, dålig kod, dålig data ger algoritmer som gör fel, om inte programmeraren hanterar detta i koden.. AI är idag algoritmiska mjukvaru robotar.. that it.. ingen egentlig intelligens finns där, inget medvetande och ingen intentionalitet..

Patrik Lindenfors sa...

Du har inte satt dig in i problemet, Anders. Läs till exempel Tegmarks bok för att bli uppdaterad (jag läser den nu). Eller Bostroms. Eller varför inte Olle Häggströms, som behandlar AI-frågan tillsammans med klimathot, fundamentalism, kärnvapenkrig och så vidare längs listan av existentiella hot.

Anders Hesselbom sa...

Anders B, AI är inte begränsat till att förstå strukturerad data (s.k. machine learning), att förstå ostrukturerad (bild- och talförståelse) eller algoritmiska robotar typ självgående gräsklippare. Det var många år sedan dessa var science fiction. Det finns många kategorier av AI som är mer relevanta för diskussion, och även där så är det vad vi inte vet som ger oss anledning att gå fram försiktigt. https://www.youtube.com/watch?v=3TYT1QfdfsM

Anders Bergdahl sa...

DEt finns inget AI som "förstår" något. även att hantera ostrukturerad data är en form av "machine learning" i det att algoritmerna måste testa och lära.
JAg anser nog att både DEnnet och Searle (framför allt Dennet) är väl insatta i fältet och Dennet är ju helt med på att AI i degens form är VÄLDIGT, väldigt långt ifrån att vara ett existentiellt hot..
Hotet är dåligt skrivna algoritmer... och det är skapligt enkelt att hantera... Chinese Room är fortfarande relevant.. det vi kallar AI förstår varken input eller output..

Anders Bergdahl sa...

Hmm vi är inte ens nära att ha en "multi purpose AI" som klarar ett förenklat turing test.. så varför ska vi se detta som ett hot NU, vi har verkliga problem även om akademiska lurigheter rund AI är kul, med det är schack oxå...

Patrik Lindenfors sa...

Anders, snälla, läs en bok i ämnet. Det handlar varken om förståelse eller "sann" intelligens. Läs Tegmark eller Bostrom för att få grepp på problemet. En dator som är väldigt bra på schack kan orsaka väldiga problem om schack skulle kopplas till något för människan viktigt. Detta helt utan att maskinen "förstår" schack eller kan utföra något annat alls än att spela schack.

Anders Bergdahl sa...

Visst Patrik, sant att om vi ber ett program/maskin att lösa ett problem, optimera gem produktion t.ex., helt utan att begränsa systemets möjligheter så är vi väldigt, väldigt dumma.
Men det är fortfarande ett "skit bakom spakarna" problem. A.I (algoritmer med självförbättrande potential) kommer inte skapa sig själva om vi inte ger dom de frihetsgraderna.. vilket vore enastående dumt. Att till exempel låta system skapa nya versioner av sig själv utan tvingande villkor.. ta t.ex. videon som Anders H länkar till.. att bara styra ett multi purpose AI på belöning är en enastående korkad idé. Man kan programmera systemet att optimera något inom begränsningar.. problem löst... dessutom har vi ingen anledning att skapa komplexa "multi-purpose system" dör vi mycket enklare kan skapa väldigt begränsade specialist system..
Så javiist om npn VILL göra dumheter så kan vi skapa ett teoretiskt problem..

Anders Hesselbom sa...

Anders B, machine learning handlar inte om "förståelse", utan om avancerad mönsteridentifikation, långt mer avancerad än vad en människa kan klara. Och angående tidsutsikterna, så är inte forskningen på att hålla SkyNet i schack speciellt långt gånget heller. Vi vet ju inte ens hur man stänger av Internet (som förmodligen exploateras för att koordinera entiteter även i framtiden). Men vad vi redan kan göra, är häftigt! Precis som du kan köpa ett grafikkort för att kunna spela spel, kan du köpa ett AI-kort för att exekvera open source-nätverk utan att belasta huvudprocessorn (t.ex. Project Brainwave från Microsoft Research). Rätt in på moderkortet, som i sin tur kan prata med routers runt om i världen. Sug på den utmaningen! Vi står inför spännande tider! Dessutom kan saker och ting gå fort. Vem trodde t.ex. på 80-talet att vi skulle ha 4-gigahertzdatorer i fickformat, och att dessa dessutom skulle vara var mans ägo? Om det som bedömdes aldrig kan inträffa då är vardag idag, så kan kanske det som idag bedöms inträffa om 30 år kanske också något som kan inträffa inom en inte allt för avlägsen framtid.

Anders Hesselbom sa...

"dessutom har vi ingen anledning att skapa komplexa "multi-purpose system" dör vi mycket enklare kan skapa väldigt begränsade specialist system.."

Verkligheten begränsas inte av vilka anledningar du anser att "vi" har.

Kristian sa...

Är det någon av dessa böcker som går in i en djupare diskussion om människors framtida målsättningar? För den avgörande frågan för resultatet borde ju ändå vara om framtida människor kommer att vara inriktade mest på tillit och samarbete, eller på att konkurrera och dominera. För det borde rätt ofta gå att anpassa något som utvecklats för ett positivt eller neutralt syfte till att istället göra något destruktivt.

Om företag kan utveckla system för att identifiera potentiella kunder, kan diktatorer ta fram verktyg för att identifiera dem som kan tänkas ifrågasätta regeringen.

Om drönare blir smarta nog att navigera själva för att leverera varor, kan de också leverera bomber till regimmotståndare. Eller något terrorändamål.

Om vi utvecklar system för extremt pricksäker reklam, kan vi göra detsamma för propaganda.

Så hur skulle det egentligen alls kunna vara möjligt att göra "säker AI"? Om det är känt hur man gör, borde illvilliga alltid kunna göra varianter utan spärrar.

Men det är klart, vi behöver försöka reglera ändå. Även de som är laglydiga kan ju göra saker som ligger i gränslandet. AI kommer säkert att bli en stor grej inom rekrytering till exempel. Men kanske kan AI då också användas för att förutsäga vilka som mest sannolikt kommer att bli sjukskrivna, deprimerade, gravida, säga emot chefen, hoppa till en konkurrent? Och varför inte system för att bedöma ansökningar om forskningspengar, asylansökningar, lån på banken, försäkringar, antagning till statusutbildningar. Jag gissar att diskriminering och AI kan bli en rätt stor fråga. Visst, det kan finnas en statistisk skillnad mellan olika grupper, men i vilka fall kan det också motivera olika behandling?

Patrik Lindenfors sa...

Anders,
Jag vet inte varför du snöat in på multi purpose eller på en egen idé om hur programmering går till, men det finns inget som begränsar det problematiska med AI till multi purpose och det finns många många system som numera är designade för att lära sig själva om omvärlden, t.ex. självkörande bilar. Det finns i vissa system ingen alls bakom spakarna, och det finns mycket begränsad detaljförståelse för vad exakt som sker när dessa system lär sig något (det finns dock en bra övergripande förståelse, vilket är skälet till att man kan bygga dessa system). Återigen, läs in dig på problemet innan du avfärdar det, annars skyltar du bara med betydande kunskapsluckor, och det är verkligen inte det som utmärkt dina kommentarer här på bloggen tidigare.

Patrik Lindenfors sa...

Kristian,
Så vitt jag förstått det går Tegmark in på dessa frågor. Jag har dock inte läst färdigt boken ännu (det kom en massa annat emellan), så jag vet inte.

Anders Hesselbom sa...

Patrik L, 2017-09-17 10:13:

Jag?

Patrik Lindenfors sa...

Nejnej, Anders B.

Anders Hesselbom sa...

Jag var faktiskt med i diskussionerna som resulterade i denna algoritm. https://www.youtube.com/watch?v=GiO40cxWbHc

 
Religion Blogg listad på Bloggtoppen.se