lördag 6 maj 2023

DE LÄSKIGA SVARTA LÅDORNA


 MYCKET AV DAGENS AI UTFÖR SYSSLOR SÅ KOMPLICERADE ATT VI INTE FÖRSTÅR HUR DEN GÖR. VÄLKOMMEN TILL EN  FASCINERANDE OCH LÄSKIG SVART LÅDA.

I oktober 1986 publicerades en artikel i den vetenskapliga tidningen Nature. Ingen kioskvältare direkt. Artikeln introducerades med ord som "inlärningsprocedurer och nätverk av neutronliknande enheter" men handlade om koder och datorer. Och i ett par årtionden såg den här tekniken ut att floppa. Ord som "artificiella neutronnät" lät kul för de nördiga, de som gick igång på att de var inspirerade av mänskliga hjärnor. Men i stort klarade de inte så mycket, de här inlärningssystemen som körde på datorer. Inte förrän på 2010-talet, då de började lära sig så fruktansvärt mycket. Analysera bilder, förstå tal, köra bil (nå ja) och känna igen ansikten.

Nu har total AI-hysteri uppstått, delvis på grund av utvecklingen, men kanske mest för att allmänheten fick känna på att småprata med Chat GPT och skapa bisarra bilder i Midjourney. Och tekniken som hade börjat funka byggde på idéer från den i artikeln från 1986. Man skulle kunna tro att författarna solade sig i glansen och kanske unnar sig ett "vad var det jag sa?"
Men nej, åtminstone inte en av dem, Geoffrey Hinton. Han har jobbat för Google de senaste tio åren. I veckan berättade han att han går i pension. Och samtidigt gav han flera intervjuer där han berättar att han är livrädd för vad AI-utvecklingen kan leda till.

Han ser bokstavligen en risk för mördarrobotar, om till exempel Putin kan vrida AI-utvecklingen, säger han till MIT Technology review.
- Jag har ändrat uppfattning om huruvida dessa saker kommer bli mer intelligenta än vi. Jag tror de är väldigt nära nu, och de kommer att bli långt mer intelligenta i framtiden. Hur överlever vi det?


Det finns ett begrepp som är viktigt för att förstå den AI vi ser i dag. "Den svarta lådan" eller black-box problemet. Ta ett banalt exempel, en bildsökmotor som förstår om en bild föreställer en katt eller en blomsteräng. Att den kan det beror på att systemet har tränats. Tränats genom att titta på mängder av kattbilder och blomsterängar. För varje titt bygger den en liten "virtuell"" förståelse för hur en katt eller blomsteräng kan se ut på bild. Men det är sedan det blir fascinerande eller otäckt, beroende på hur man är lagd, för den där förståelsen, den kan vi i många fall inte begripa.Den är just som en svart låda, en bild stoppas in, ut kommer att svar om vad det föreställer. Men exakt vilka mönster AI bygger på, det är ofta för komplext.
Tänk sedan den ofattbart stora AI-modellen bakom systemen som Chat GPT. Vi vet hur den blev till, den tränades på mängder av text från nätet. Men resultatet är oöverblickbart. Ingen person kan förstå ett sådant system i detalj. Vi ser bara resultatet av det.

Inte konstigt att det uppträder oväntat ibland. Tappar humöret eller slarvar med fakta och "hallucinerar" som företaget bakom Chat GPT faktiskt kallar det. Det är väl en sak när det gäller kattbilder i mobilen, men den där svarta lådan och dess mystiska innehåll blir läskigare när AI ska köra bilar eller upptäcka cancer. Det sägs att ett system som letade tumörer tränade på röntgenbilder med konstaterade tumörer. Snart flaggade den alla rätt. Men bredvid tumören hade man lagt en linjal. Så i stället för att känna igen tumörer hade AI:n lärt sig leta efter linjaler.
En riktig idiottanke någonstans i den svarta lådan.

Underlag: Linus Larsson. DN.


























Inga kommentarer:

Skicka en kommentar