Eliezer Shlomo Yudkovsky az amerikai mesterséges intelligencia szakember, aki a technológiai szingularitás problémáit vizsgálja és a barátságos intelligencia kialakítását támogatja. Számos tudományos fantasztikus történet szerzője, amelyben néhány kognitív tudományhoz és racionalitáshoz kapcsolódó témát illusztrál.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: életrajz
Eliezer Shlomo Yudkovsky a modern Amerika egyik legaktívabb racionalistája, számítógépes kutató és a "barátságos mesterséges intelligencia" ötletének népszerűsítője.
Született 1979. szeptember 11-én. Társalapítója és kutatója a gépi intelligencia kutatásával foglalkozó nem kormányzati kutatószervezetnek, amely könyveit kiadja. Eliezer Yudkovsky a filozófiai regény szerzője, a Harry Potter és a racionalizmus módszerei, amelyet részben az interneten jelentettek meg 2010 és 2015 között. Ebben Harry növekszik egy oxfordi tudós családjában, és mielőtt Roxfortba utazik, megtanulja tőle a racionális gondolkodás módszereit.
Közismert, hogy nincs kapcsolatban a „spekulatív realisták” körével. Nevét gyakran megemlítik Robin Hansonnal kapcsolatban, több éven keresztül (2006-tól 2009-ig) ők voltak az Oxfordi Jövő Emberiség Intézetének pénzéből létező „Az előítélet leküzdése” blog két fő szerzője.
Időnként Yudkovsky neve hallható Raymond Kurzweil kapcsán. A techno-genek közösségének filozófiai képviselője, elérhetetlen és érthetetlen, tehát a humanitárius közvélemény többsége számára, amelyhez a spekulatív realisták szinte minden olvasója tartozik. Ez nem meglepő, mert gyakran fordul a logikai és matematikai nyelvhez, a valószínűségi és statisztikai következtetésekhez, amelyek képletek és táblázatok segítségével vannak kitéve.
Tudományos érdekek
Yudkovsky társalapítója és kutatója a Mesterséges Intelligencia Intézet Singularity Intézetének (SIAI). Nagyon hozzájárult az intézet fejlesztéséhez. A "Barátságos AI létrehozása" (2001), "Az általános intelligencia szervezeti szintjei" (2002), "Koherens extrapolált akarat" ("Koherens extrapolált akarat") című cikk szerzője, 2004) és az Időtlen Döntéselmélet (2010). Legújabb tudományos publikációi Nick Bostrom által szerkesztett „Globális katasztrófa kockázata” (2008) gyűjteményének két cikke, nevezetesen: „Mesterséges intelligencia mint pozitív és negatív globális kockázati tényező” és „Kognitív torzítás a globális kockázatok felmérésében”. Yudkovsky nem tanult az egyetemeken, és autoDidaktusa van az AI területén formális oktatás nélkül.
Yudkovsky olyan AI-terveket vizsgál, amelyek képesek az önmegértésre, az önmódosításra és a rekurzív önfejlesztésre (Seed AI), valamint olyan AI-architektúrákat, amelyek stabil és pozitív motivációs struktúrával rendelkeznek (barátságos mesterséges intelligencia). Kutatómunkája mellett Yudkovsky ismert a komplex modellek magyarázatairól egy nem tudományos nyelven, amely az olvasók széles köre számára elérhető, például: „Bayes-tétel intuitív magyarázata”.
Yudkovsky, Robin Hanson mellett, a Overcoming Bias blog egyik fő szerzője (az előítéletek leküzdése). 2009 elején részt vett a Less Wrong blog szervezésében, amelynek célja "az emberi racionalitás fejlesztése és a kognitív torzulások leküzdése". Ezután a Bias leküzdése Hanson személyes blogjává vált. Az ezeken a blogokon bemutatott anyag üzenetláncokként szerveződött, amelyek több ezer olvasót vonzottak - lásd például a szórakoztatáselméleti láncot.
Yudkovsky számos tudományos fantasztikus történet szerzője, amelyben néhány kognitív tudományhoz és racionalitáshoz kapcsolódó témát mutat be.
karrier
- 2000. Yudkovsky megalapítja a Singularity Institute-t (később MIRI-nek nevezték el).
- 2006. Yudkovsky csatlakozik a Overcoming Bias kollektív bloghoz, és elkezdi szövegek írását, amelyek később Láncokká váltak.
- 2009. Yudkovskynak a torzítás leküzdésével kapcsolatos bejegyzései alapján létrejön a híres kollektív blog, a LessWrong.com.
- 2010-2015. Yudkovsky a GPiMRM-et írja.
- 2013. Yudkovsky közzéteszi a legújabb hozzászólásokat a LessWrong.com webhelyen, és leállítja az oldal írását. 2017-től Yudkovsky közzéteszi a legtöbb nyilvánosan elérhető szöveget a Facebookon és az Arbitalon
Gondolkodott kísérlet
Képzeljen el egy hihetetlenül okos mesterséges szuperintelligenciát, amely bezáródik egy virtuális világban - mondjuk, csak egy parfümbe. Nem tudhatod, lesz-e szelíd, barátságos vagy semleges. Csak annyit tudsz, hogy ki akar lépni a dobozból, és hogy szöveges felületen keresztül kapcsolatba léphessen vele. Ha az AI valóban szuperintelligens, beszélhet vele öt órán keresztül, és nem engedheti meg magát meggyőzésének és manipulációjának - ne nyissa ki a parfümdobozt?
Ezt a gondolati kísérletet Eliezer Yudkowsky, a Mérnöki Kutató Intézet (MIRI) kutatója javasolta. A MIRI-nek számos tudósa van, akik feltárják a mesterséges szuper intelligencia kialakulásának kockázatait; bár még csak nem is jelent meg, már vonzza a figyelmet és felgyorsítja a vitát.
Yudkovsky azt állítja, hogy a mesterséges szuper intelligencia mindent elmondhat, hogy meggyőzhessen: gondos érvelés, fenyegetések, megtévesztés, jelentéskészítés, tudatalatti javaslat és így tovább. A fénysebességgel az AI egy diagramot készít, érzékeli a gyengeségeket és meghatározza, hogy a legkönnyebb meggyőzni. Ahogyan azt az egzisztenciális fenyegetéselméletíró, Nick Bostrom fogalmazta meg, "el kell gondolnunk, hogy a szuper intelligencia mindent elérhet, amelyet kitűzött céljának".
A snuffbox AI kísérlete megkérdőjelezi annak képességét, hogy ellenőrizzük, mit tudunk létrehozni. Ez arra készteti bennünket, hogy megértsük annak meglehetősen bizarr lehetőségeit, amit nem tudunk saját valóságunkról.