Eliezeris Shlomo Yudkovsky yra amerikietis dirbtinio intelekto specialistas, kuris tiria technologinio išskirtinumo problemas ir pasisako už draugiškos AI sukūrimą. Jis yra kelių mokslinės fantastikos istorijų, kuriose iliustruoja kai kurias temas, susijusias su pažinimo mokslu ir racionalumu, autorius.
Eliezer Yudkowski: biografija
Eliezeris Shlomo Yudkovskis yra vienas aktyviausių šiuolaikinės Amerikos racionalistų, kompiuterių tyrinėtojas ir „draugiško dirbtinio intelekto“ idėjos populiarintojas.
Gimė 1979 m. Rugsėjo 11 d. Nevyriausybinės tyrimų organizacijos „Machine Intelligence Research Institute“, kuri leidžia savo knygas, bendraįkūrėja ir tyrėja. Eliezeris Yudkovskis yra filosofinio romano „Haris Poteris ir racionalizmo metodai“, paskelbto dalimis internete nuo 2010 iki 2015, autorius. Jame Harry auga Oksfordo mokslininko šeimoje ir, prieš keliaudamas į Hogvartsą, išmoksta iš jo racionalaus mąstymo metodus.
Kiek žinoma, jis neturi jokio ryšio su „spekuliacinių realistų“ ratu. Jo vardas dažnai minimas siejant su Robinu Hansonu, kelerius metus (2006–2009 m.) Jie buvo du pagrindiniai tinklaraščio „Įveikti išankstinę nuostatą“, egzistavusio už Oksfordo Ateities žmonijos instituto pinigus, autoriai.
Kartais Yudkovskio vardą galima išgirsti ryšium su Raymondu Kurzweilu. Jis yra filosofuojantis techno-geekų bendruomenės atstovas, neprieinamas ir nesuprantamas, todėl daugumai humanitarinės visuomenės, kuriai priklauso beveik visi spekuliacinių realistų skaitytojai. Tai nestebina, nes jis dažnai kreipiasi į loginę ir matematinę kalbą, tikimybines ir statistines išvadas, atskleidžiamas naudojant formules ir lenteles.
Moksliniai interesai
Yudkovsky yra Dirbtinio intelekto instituto Singularity Institute (SIAI) įkūrėjas ir tyrėjas. Jis labai prisidėjo prie instituto plėtros. Jis yra knygos „Draugiškos AI sukūrimas“ (2001), straipsnių „Bendrojo intelekto organizacijos lygiai“ (2002), „Nuosekli ekstrapoliuota valia“ („Nuosekli ekstrapoliuota valia“) autorius, 2004) ir nesenstančio sprendimo teorija (2010). Jo paskutinės mokslinės publikacijos yra du straipsniai kolekcijoje „Visuotinės katastrofos pavojai“ (2008 m.), Kurią redagavo Nickas Bostromas, būtent „Dirbtinis intelektas kaip teigiamas ir neigiamas globalios rizikos veiksnys“ ir „Kognityvinis iškraipymas vertinant globalią riziką“. Yudkovskis nesimokė universitetuose ir yra savadarbis didaktas be formalaus išsilavinimo AI srityje.
Yudkovskis tyrinėja tas AI konstrukcijas, kurios sugeba suprasti save, modifikuoti save ir rekursyviai tobulinti save (Seed AI), taip pat AI architektūras, kurios turės stabilią ir teigiamą motyvacijos struktūrą (draugiškas dirbtinis intelektas). Be savo tiriamojo darbo, Yudkovskis yra žinomas dėl sudėtingų modelių paaiškinimų neakademine kalba, prieinamiems plačiam skaitytojų ratui, pavyzdžiui, žr. Jo straipsnį „Intuityvus Bajeso teoremos paaiškinimas“.
Yudkovskis kartu su Robinu Hansonu buvo vienas iš pagrindinių tinklaraščio „Įveikti šališkumą (įveikti išankstinį nusistatymą) autorių. 2009 m. Pradžioje jis dalyvavo tinklaraščio „Less Wrong“ organizavime, kurio tikslas - „ugdyti žmogaus racionalumą ir įveikti pažinimo iškraipymus“. Po to „Įveikti šališkumą“ tapo asmeniniu Hansono tinklaraščiu. Šiuose tinklaraščiuose esanti medžiaga buvo suorganizuota kaip žinučių grandinės, pritraukusios tūkstančius skaitytojų - žr., Pavyzdžiui, pramogų teorijos grandinę.
Yudkovskis yra kelių mokslinės fantastikos istorijų, kuriose jis iliustruoja kai kurias temas, susijusias su pažinimo mokslu ir racionalumu, autorius.
Karjera
- 2000. Yudkovsky įkūrė Singularity Institute (vėliau pervadintą MIRI).
- 2006. Yudkovsky prisijungia prie kolektyvinio tinklaraščio „Overcoming Bias“ ir pradeda rašyti tekstus, kurie vėliau tapo „Chains“.
- Remiantis Yudkovskio įrašais apie „Įveikti šališkumą“, sukuriamas garsus kolektyvinis tinklaraštis „LessWrong.com“.
- 2010-2015. Yudkovskis rašo GPiMRM.
- 2013. Yudkovsky paskelbia naujausius pranešimus svetainėje LessWrong.com ir nustoja rašyti svetainėje. Nuo 2017 m. Yudkovsky skelbia daugumą viešai prieinamų tekstų „Facebook“ ir „Arbital“
Mintinis eksperimentas
Įsivaizduokite neįtikėtinai intelektualų dirbtinį super intelektą, užfiksuotą virtualiame pasaulyje - tarkime, tiesiog „Snuffbox“. Jūs nežinote, ar jis bus nuovokus, draugiškas ar neutralus. Viskas, ką žinote, yra tai, kad jis nori išeiti iš dėžės ir kad jūs galite bendrauti su juo per teksto sąsają. Jei AI iš tikrųjų yra intelektuali, ar galite penkias valandas su juo pasikalbėti ir nepasiduoti jo įtikinėjimui bei manipuliavimui - neatidaryti uostomosios dėžės?
Šį minčių eksperimentą pasiūlė Eliezer Yudkowsky, inžinerijos tyrimų instituto (MIRI) tyrėjas. MIRI turi daug mokslininkų, tyrinėjančių dirbtinio super intelekto išsivystymo riziką; nors jis dar net nepasirodė, jis jau pritraukia dėmesį ir skatina diskusijas.
Yudkovsky teigia, kad dirbtinis super intelektas gali pasakyti viską, ką gali, kad įtikintų: rūpestingas samprotavimas, grasinimai, apgaulė, pastatų sudarymas, pasąmonės siūlymas ir pan. Su šviesos greičiu AI sukuria planą, patikrina trūkumus ir nustato, kaip lengviausia jus įtikinti. Kaip teigė egzistencinės grėsmės teoretikas Nickas Bostromas, „mes turime tikėti, kad intelektas gali pasiekti viską, ką iškelia savo tikslu“.
„Snuffbox“ AI eksperimentas verčia abejoti mūsų galimybėmis valdyti tai, ką galėtume sukurti. Tai taip pat verčia suvokti gana keistas galimybes to, ko nežinome apie savo pačių realybę.