23 okt. 2016

Kan vi skapa artificiell intelligens utan att tappa kontrollen?

33 kommentarer:

Ravn sa...

Trams Harris. Och han som brukar vara sansad. Är detta hans religion? Det låter verkligen så. Sam har kritiserat andra (med rätta!) för att de pratar om saker de inte vet något om eller förstår. Han borde följa sitt eget råd.

Ta t.ex. myr-analogin. Trots att myror verkligen är maskiner utan känslor för allt vad vi vet behandlar vi dem skapligt, något harris också uppmärksammar. Varför skulle inte en "superinteligens" göra det samma med oss?

Eller ta harris inteligenskurva. Vad innebär den? Har han något belägg för formen eller ens vad det innebär med inteligens?

Eller tron om att vi skulle lyckas skapa detta utan att förstå det. Så att säga på chans. Vi fattar inte hur människans hjärn funkar, men vi kan skapa något som är 1000g bättre? Varför skulle vi kunna göra det?

Ulf Gustafsson sa...

Ravn,

Håller inte med. Inte behandlar vi myror skapligt. När tas det hänsyn till myror när det byggs en ny väg? Inte flyttas myrstacken då eller en vägen ges en ny sträckning. Att en superintelligens skulle bevara mänskligheten som en del av den biologiska mångfalden, är inte speciellt uppmuntrande ur vårt perspektiv.

Harris säger att problemet är att vi kommer skapa något lite intelligentare än oss, och att den intelligensen kommer skapa något ännu intelligentare, och så vidare. Tills vi inte kan greppa vad det handlar om eller att hastigheten i "tänkandet" vida överstiger vårt. Hur det kommer gå till vet vi inte idag, men det är tänkbart att det kan ske genom evolutionära algoritmer. På ett liknande sätt som vårt hjärna utvecklats.

Ravn sa...

Vist är det möjligt att vi kommer "evolvera" fram något sådant. Även om vad jag kan se så finns inget sådant på kartan idag. Men vad är i så fall problemet med det? Det blir ju farligt likt något sorts ariskt tänkande om att vår mänskliga ras är så fantastiskt att den måste bevaras för sitt egenvärde. Detta kanske är den naturliga evolutionen av tänkande primater?

Det är naturligtvis så att man inte vill hamna i en situation där människor hålls som slavar eller på annat sätt behandlas illa och lider. Men vad är det som säger att denna "superinteligens" (SI) skulle göra det? Redan vi korkade människor begriper ju detta och kan jobba för att minimera lidande, både för medmänniskor och för andra arter. Är det inte rimligt att tro att SI skulle vara ännu mer medlidsam. Det kanske är vi som gör illa genom att skapa denna SI då den via sin vida överlägsna empati kommer må mycket sämre än vad vi människor gör?

Det är såklart bra att vi pratar om detta, men det måste väl finnas betydligt större hot mot mänskligheten? Personligen är jag oerhört mycket mer rädd för kärnvapen än för SI. Alltså, storleksordningar mer rädd för. Bör vi då inte lägga vår energi på att hantera dessa?

Patrik Lindenfors sa...

Ravn,
Varför ska vi basera hur mycket energi vi lägger ner på ett problem på just dina rädslor? Verkar det inte bättre att lyssna på exempelvis forskare, filosofer och andra som har gått igenom och värderat existentiella hot? En bra bokrekommendation i sammanhanget är "Here Be Dragons" av Olle Häggström, där han går igenom en diger lista av problem för mänskligheten, inklusive kärnvapen, klimathot och AI. Även han landar på AI som det närmast liggande stora problemet.

Evolutionära algoritmer är för övrigt en metod att programmera datorer enligt, inget som kommer att hända människan.

Ravn sa...

Det ska vi naturligtvis inte, men jag uttrycker min åsikt. Svårt att uttrycka någon annans...

Känner Olle, och han har naturligtvis många poänger. Liksom Sam och ni övriga här. Bara att jag delar inte hans uppfattning totalt.

Frågan om hotet mot mänskligheten är såklart väldigt multidisciplinär, det handlar om tekniska frågeställningar, samhällsfrågor och filosofi. Det gör vidare att ingen kan utnämna sig som expert och tro sig göra dessa bedömningar väsensskilt bättre än andra. Såklart att man kan göra mer eller mindre kvalificerade bedömningar, mina kvalifikationer är primärt tekniska, vilket faktiskt är ganska skiljt från t.ex. vad en akademisk statistiker besitter. Så jag har helt enkelt ett lite annorlunda perspektiv.

Anders Hesselbom sa...

Naturlig evolution brukar inte premiera hög intelligens, de flesta arter är mindre intelligenta (enligt den underförstådda definition som används här) än människan, och människan har definitivt sina begränsningar. Evolutionära algoritmer borde rimligtvis selektera mer utstuderat på intelligens (och rätt typer av intelligens) än vad evolution genom naturligt urval skulle göra. I den naturliga världen är t.ex. evolutionär kostnad ett helt annat problem än i den artificiella. Samtidigt, jag har bara använt evolutionära algoritmer för att skapa lösningar på praktiska problem, aldrig för att skapa någon "generell AI", och jag kan säga att jag inte ens vet hur det skulle gå till. Således kommer det förmodligen inte vara mitt fel att jorden går under.

Anders Bergdahl sa...

Problem ett:
Inga artificiella system har intentioner och vi vet inte om vi någonsin för artificiella system med intentioner.

Alltså är det ända problem vi har dålig programmering. Eftersom artificiella system INTE har egen vilja, inte har intentioner, så är deras agerande en konsekvens av de algoritmer som styr systemet. Även om systemet utvecklar och förädlar algoritmer självt så styrs detta av de start villkor en programmerare gjort.
ALLTSÅ vi behöver INTE vara rädda för elak AI utanför dåligt kontrollerad AI som, helt utan onda intentioner, kan spåra ur.
PUNKT (med det inte sagt att de urspårade system inte kan orsaka stor skada men det är helt och hållet upp till OSS att skapa kontroll, systemen har ingen vilja, vi har.. (tror vi i alla fall))

Ravn sa...

Anders och Anders, håller med er. Det är min bedömning också. Men som Hesselblom skriver, så bör vi nog vara ödmjuka inför att vi inte vet allt om detta.

Göran sa...

Instämmer med Anders B om avsaknaden av egen vilja i AI. Man kunde önska att Sam Harris hade samma insikt.
Det har skämtsamt sagts att studiet av en neuron är neurologi och studiet av två neuroner är psykologi.

Ravn sa...

Göran och Anders B. Så är det nog. Men det är klart att det är lite lurigt eftersom vi inte vet vad vilja är för något. Man får anta (om man inte är religiös, vilket väl vi inte är när vi är här antar jag...) att även vilja är en naturlig process som kan uppstå i olika autonoma system. Dock verkar det ju som om det är oerhört komplext och vi är inte i dagsläget i närheten av att skapa vilja eller självmedvetenhet eller någon annan högre kognitiv funktion.

Patrik Lindenfors sa...

För en gångs skull tycker jag Anders Bergdahl är ute och cyklar. Vad gäller om något har en "intention" eller inte så beror det helt på definitionen av begreppet. Om man menar "strävar mot ett mål" så har målstyrda robotar intentioner. Och "fri vilja" är svårt att reda ut om ens människor har. Om man hävdar kompatibilism, så agerar även målstyrda robotar enligt interna önskemål och värderingar. Dessa är bara ditprogrammerade. Men, kan man hävda, detsamma gäller för människor, fast vi inte är medvetna om hur vi blivit programmerade av yttre omständigheter, så det "känns" fritt. Slutligen, vad gäller AI som programmerar sig själva så är detta inte alls nödvändigtvis styrt av de villkor en programmerare gjort. Dels finns möjligheten att programmeraren inte vet vad han gör, så intentioner uppstår oavsiktligt i systemet. Dels finns redan neurala nätverk som lär sig själva, där programmeraren sätter omständigheterna men inte har någon inverkan över resultatet. Dels är det att helt missförstå vad AI är för något - det handlar inte om specifik programmerad intelligens, utan om generell emergent intelligens. Att tro att detta inte kan uppstå utanför en kötthjärna av vår typ är lite att anamma Görans "magiska" syn på vad medvetande, intelligens och intentioner är för något. För mycket Searle, tycker jag.

Patrik Lindenfors sa...

Anders Hesselbom,
Evolutionära algoritmer är bara ett sätt att använda förståelsen av urvalsprocesser för att kunna göra målstyrd programmering, inte verktyget för att göra AI. Här verkar neurala nätverk vara vägen framåt. Har du arbetat med sådana?

Ulf Gustafsson sa...

Håller inte alls med. Jag vet inte hur vilja och intention uppkommer i den mänskliga hjärnan. Därför kan jag inte avskriva att det också kan uppkomma i artificiella intelligenser.

Risken föreligger också eftersom de som utvecklar AI kommer vilja att de är innovativa och har möjlighet att förändras. Det kommer finnas variation och detta är efterfrågat (precis som i den naturliga evolutionen.) Det är nödvändigt för att systemen ska vara användbara.

Sedan finns det ett enormt tolkningsproblem (för systemet), även om vi lyckas programmera in generell intention som är stabil över tiden.

Ravn sa...

Ulf och Patrik: Håller ni det för troligt att vi kommer knåpa ihop något som är kraftfullt och sofistikerat nog för att plötsligt på egen hand kunna ställa till med massa tokigheter för oss? Evolutionen har tagit jag otroligt lång tid på sig att knåpa fram oss. Klart att vi kommer vara snabbare, men nu pratar vi om teknik som funnits i max 50 år. Tror ni verkligen vi är i närheten, utan att ens förstå det? För mig låter detta nästa som tro på magi.

Det finns ju evolutionära algoritmer idag som gör fräcka saker, men det handlar om otroligt banala saker; sortera bilder, syntetisera tal, och det är det mest sofistikerade dom gör. Hitta och generera halv-intrikata mönster. Knappas något som kan få för sej att skicka iväg kärnvapen eller stänga ner internet. För detta har vi istället tokstollar som Putin och illasinnade brottslingar som skriver virus som är designade för illvilja. Mycket mer farligt.

Göran sa...

Patrik L,
"Att tro att detta inte kan uppstå utanför en kötthjärna av vår typ är lite att anamma Görans "magiska" syn på vad medvetande, intelligens och intentioner är för något."

Den halmgubben hamnade fel med 180 grader.

Anders Hesselbom sa...

Patrik, tyvärr, endast som "konsument", har aldrig designat något NN - det finns mycket godis på Github för den programmerare som vill leka med det. Men vi närmar oss helt klart brytpunkten för när t.ex. textförståelse görs bättre med NN än med traditionell algoritmisk parsing, och jag delar uppfattningen om att NN är vägen framåt för AI, med sedvanliga reservationer för vad vi menar med AI, eftersom många system är självlärande helt utan att uppfattas som speciellt intelligenta i filosofisk mening.

Patrik Lindenfors sa...

Ravn,
Jag har ingen aning om tidsperspektivet, men kan konstatera att vi redan nu har självkörande bilar och igenkänningsalgoritmer som är förbluffande i sin kapacitet. Problemet med att göra förutsägelser är att sådant som vi trodde var komplicerat visat sig vara ganska enkelt (köra bil, spela schack) medan sådant vi trodde var enkelt visat sig vara väldigt svårt (ansiktsigenkänning, gång). När vi slår i vilken gräns är därför väldigt svårt att förutspå. Men kulturell evolution går mätbart snabbare än biologisk och vi förstår varför, så det biologiska tidsperspektivet är relativt oinformativt.

Men som sagt, framtiden för AI är inte i evolutionära algoritmer - dessa är ju människodesignade - utan i självlärande system, ganska säkert neurala nätverk.

Ravn sa...

Patrik,

Om framtiden för AI är "självlärande" NN så borde man väl vara ännu mindre orolig. Inte som att en NN på 10^6 neuroner hur självlärande den än är kommer att utveckla medvetande. Det är ju först när vi börjar utsätta den för evolution som den i någon liten bemärkelse kommer bortom vår kontroll.

Att sedan kalla dessa NN för självlärande är ganska starkt. Det säljer ju såklart bra, men sanningen är ju att det ligger oerhört mycket hårt arbete bakom träning av ett NN till den funktionalitet som man vill ha.

Sedan, dina två exempel är ju just det - specifika applikationer. Det finns inte på kartan att dom självkörande bilarna ska börja hitta på tokigheter utanför sin programmering.

Patrik Lindenfors sa...

Ravn,
Det är en form av evolution, om vi låter självlärande neurala nätverk optimera sig själva. Ett problem som sådana system kan lösa, men som inte biologiska system klarar av, är att helt kopiera kunskap mellan nätverk. Det är bara att göra en exakt kopia och sätta alla vikter på noderna lika så kan man "klona" allt som är inlärt. Så förutsättningarna är redan annorlunda för ett motsvarande biologiskt system.

Vad gäller hårt arbete så vet jag inte. Det är bara att samla tillräckligt många erfarenheter och distribuera dessa till alla nätverk och sedan samla dessas erfarenheter och distribuera dessa och så vidare. Så får man snabbt upp "kunskapen" till nivåer som helt enkelt inte är möjligt för köttjärnor. Så fungerar enligt uppgift Teslas självkörande bilar - de är inte bara självkörande utan också kollektivt självlärande.

Varför skulle inte självkörande bilar utifrån detta kunna börja hitta på tokigheter? Det låter som om du tror att inlärningsmodellen har någon sorts Google-spärr ("Don't do evil"), men någon sådan finns inte.

Anders Hesselbom sa...

Ravn, vi använder "självlärande" om (i förhållande) ganska enkla system, men om rätt ska vara rätt så pratar vi om machine learning, vilket inte riktigt är samma sak som att "skola" ett system, det handlar mer om att visa upp data för systemet för att kunna ställa frågor på dess karaktär, typ det som motsvarade data mining i ett mindre intelligent system. Förmodligen alla som programmerar servertjänster idag, jobbar med intelligens som var science fiction för 10 år sedan.

Pike sa...

Ursäkta om jag är petig, men det verkar som att det råder en del begreppsförvirring här.

Jag tycker inte att det går att jämföra evolutionära algoritmer och neurala nätverk som ni (Patrik och Anders H) försöker göra.

Ett självmodifierande system baserat på evolutionära algoritmer skulle å ena sidan mycket väl kunna resultera i ett system som fungerar som ett neuralt nätverk och å andra sidan vara baserat på ett neuralt nätverk till att börja med, där kandidaterna för evolution i sig är nya neurala nätverk.

Vill man göra det riktig spännande (och rörigt) kan man även låta det neurala nätverket påverka de evolutionära algoritmerna så att systemet, baserat på output från NN, kan förändra urvalskriterierna för nästa generation.

Göran sa...

En intressant diskussion är det hur som helst. Ser en tendens att de som har en mer materialistisk syn har en större tro på en superintelligens.Om man som Harris pekar på sitt huvud och menar att det bara är en massa celler så är det nog lätt att tro på att maskinerna riskerar att ta över också. Vet inte om jag missade något men kunde egentligen inte se något som Harris tillförde i AI-frågan.
Jag kan dock ge dig ett rätt Patrik att jag tycker Searle tillför mer.

Anders Hesselbom sa...

Pike, i sin enklaste form är en evolutionär algoritm en formelsökning. Om en formel innehåller A och B, och svaret är S när A=X och B=Y, men T när A=P och B=Q, hur ser då formeln ut? Steget till världsherravälde är rätt stort. ;-)

Pike sa...

Jag vet inte om vi pratar om samma sak, Anders.

I det som jag antar är relevant för diskussionen om AI så är evolutionära algoritmer ett sätt att optimera delar eller helheten av ett system med hjälp av metaheuristik. Eller för att skippa fikonspråket ett ögonblick: att göra en mängd kopior (barn) av en generation av systemet (föräldern), slumpa förändringar i varje "barn", mäta hur väl varje "barn" fungerar jämfört med "föräldern" och välja det det bästa som nästa generation.

Om det som ska optimeras med hjälp av evolutionära algoritmer är ett neuralt nätverk går det alldeles utmärkt beskriva nätverken som ett dataset (tillstånd- och aktivitetsvektorer) och göra små slumpmässiga förändringar i dem för att sedan utvärdera dem utifrån ett önskat utfall.

Ditt exempel blir då bara relevant om det går att värdera om "S" är bättre än "T". Då kan evolutionära algoritmer ta ett neuralt nätverk där "A" och "B" är (förmodligen stora) vektorer eller matriser som beskriver ett neuralt nätverk och "evolvera" fram ett (delvis) optimerat nätverk som viktar "S" högre än "T". Om "S" och "T" i sin tur är komplexa datamängder och vidare bara är två utfall i ett större utfallsrum där fler jämförelser går att göra så börjar vi ha grunden till avancerad "machine learning".

Anders Hesselbom sa...

Jag kanske ska kommentera implementationen av en sådan. Tänk dig ett (upp-och-nervänt) träd där roten är t.ex. en sekvens med olika renderingar av "e op f = g". E är t.ex. en implementation av A, av B, en konstant, eller en branch. op är en operatör, f kan vara samma sak som e och g är det faktiska svaret. En generation skulle vara en kopia serien där e byts ut till något annat, t.ex. en ny branch eller ett annat värde. Det kommer att leda till att trädet växer eller krymper. Alla delar i sekvensen ser lika dana ut, de skiljer sig bara åt genom att de räknar ut formeln med det olika indatat. Dessa sekvenser (som kan bli ganska komplicerade) sorteras efter poäng. Att räkna fram ett svar som ligger nära exempeldata ger massor av poäng, att ha få branches ger lite poäng. Dessa sekvenser sorterar man sedan på sina poäng, muterar de bästa och slänger in dem i processen och klipper bort de sämsta. På bara någon sekund hinner man behandla massor av generationer, och på bara ett par sekunder har man ett kort svar på frågan jag ställde igår (2016-10-25 20:17). Så evolutionära algoritmer är i sig inget som har med AI att göra - åtminstone inte enligt definitionen vi pratar här - men det är kittlande att tänka på att kombinera någon form av självlärande med evolution. Men det ligger över min kompetensnivå. Och jag som skriver detta är ändå Gud i flera artificiella universum, om än väldigt enkla sådana.

Anders Hesselbom sa...

Pike, nu skrev jag mitt svar innan jag hade läst ditt, men som du ser var premissen att OM en formel innehåller A och B, och svaret är S när A=X och B=Y, men T när A=P och B=Q, hur ser då formeln ut? Man avlar på en vanlig formelsökning, så vi vet vad vi värderar. Detta har jag implementerat flera gånger, så det är inget konstigt. Lite på skoj har jag gjort en evolutionär algoritm som skapar ett korrekt sudoku på nätet (vilket faktiskt är mycket enklare än en formelsökning, av flera skäl).

Pike sa...

Det är mycket möjligt att evolutionära algoritmer (EA) inte har något med AI att göra enligt din definition.

Då undrar jag om du inte har definierat begreppet väldigt snävt, eftersom det annars i litteratur och forskning inte alls är speciellt kontroversiellt att betrakta EA som en del av AI. Till exempel börjar wikipedias artikel om "Evolutionary computation" med meningen: "In computer science, evolutionary computation is a subfield of artificial intelligence..."

Jag är inte Gud någonstans, men jag har pysslat med NN i över 20 år och EA bara något kortare tid. Som jag ser det är det två verktyg i lådan där NN är bra till mönsterigenkänning och EA till metaheuristik. Ingen av dem är en "golden hammer", men båda kan användas för att emulera beslutsprocesser.

Anders Hesselbom sa...

Pike, nu tror jag inte du förstår. Att det ena kan förekomma utan det andra, betyder inte att de inte kan ha något med varandra att göra. Jag har kommenterat det genom att säga att det ligger över min kompetens, jag har inte kommenterat det genom att säga att det inte går, eller ens att det inte görs. Jag råkar bara inte jobba med någon, typ, filosofisk AI eller designat något neuralt nätverk, men jag arbetar dagligen med EA i alla möjliga sammanhang som inte har med AI att göra, eller mycket lite i alla fall.

Pike sa...

Det är mycket jag inte förstår, Anders :)

Det jag reagerade var på att Patrik skrev "Evolutionära algoritmer är bara ett sätt att använda förståelsen av urvalsprocesser för att kunna göra målstyrd programmering, inte verktyget för att göra AI."

I ditt svar på detta skrev du "...och jag delar uppfattningen om att NN är vägen framåt för AI..." och i den kontexten antog jag att du håller med om Patriks påstående.

Jag hävdar motsatsen: att ett "traditionellt" NN inte har någon större chans att via emergens utveckla någon egentlig AI, eller egentligen någon funktion utöver det det egentligen var konstruerat för till att börja med.

Göran sa...

Redan 1997 besegrade IBMs Deep Blue Kasparov i schack och det fick säkert upp ögonen för AI och vart utvecklingen kan nå.
Idag har aktiehandeln tagits över av datorer när det gäller snabba affärer. Från en aktieblog;
"I staterna har man i vart fall tagit denna teknik till helt andra nivåer. Där kämpar företag idag för att kunna lägga sina servrar så nära Nasdaq börsen som möjligt för att få det försprång dessa millisekunder förser dem med när robotarna öser på med sina handelsalgoritmer. "
Och inom en inte alltför nära framtid har vi förarlösa bilar.

Så allt som kan mätas kan datoriseras och utvecklas enormt till både nytta och förtret. Och vad virus kan ställa till med vet vi om vi tittar på den destruktiva sidan.
Men det mänskliga intellektet kan ju också skydda sig mot ovanstående om det så bara är att mer eller mindre bildligt dra ur sladden till datorn.

Anders Hesselbom sa...

Det kan jag i och för sig också hålla med om.

Anders Hesselbom sa...

(Mitt svar 2016-10-27 08:18 vänder sig till Pike.)

Anders Hesselbom sa...

Eftersom jag pladdrat så mycket, så tänkte jag vara artig nog att visa hur skalet runt en evolutionär algoritm ser ut. https://www.youtube.com/watch?v=YEUueI-z904

 
Religion Blogg listad på Bloggtoppen.se