Süni intellektin etikası

Original URL: https://nickbostrom.com/ethics/artificial-intelligence.pdf

Autor: Nick Bostrom


Düşüncə maşınlarının yaradılması mümkünlüyü bir sıra etik suallar doğurur. Bu məsələlər həm maşınların insanlara və digər mənəvi cəhətdən uyğun varlıqlara zərər verməməsini təmin etməklə, həm də maşınların özlərinin mənəvi vəziyyəti ilə birləşir. Birinci bölmədə Süni İntellektin (AI) yaxın gələcəkdə ortaya çıxa biləcəyi məsələlər müzakirə olunur. İkinci bölmə süni intellektin insanlara və onların intellektinə yaxınlaşdıqda təhlükəsiz işləməsini təmin etmək üçün çətinlikləri vurğulayır. Üçüncü bölmə süni intellekt sistemlərinin mənəvi statusa malik olub-olmadığını və hansı şəraitdə qiymətləndirə biləcəyimizi vurğulayır . Dördüncü bölmədə biz süni intellekt sistemlərinin insanlardan onların etik qiymətləndirilməsi ilə bağlı bəzi əsas aspektlərdə necə fərqlənə biləcəyini nəzərdən keçiririk. Yekun bölmədə insan zəkasından daha ağıllı olan AI-lərin yaradılması və onların bu qabaqcıl zəkadan şərdən çox yaxşılıq üçün istifadə etmələrinin təmin edilməsi məsələlərinə toxunulur.
 

Öyrənmə Maşınlarında Etika və AI alqoritmlərinin digər xüsusi sahələrində
 

Təsəvvür edin ki, yaxın gələcəkdə öyrənmə alqoritmi maşınından istifadə edən bir bank [fn]NT: Öyrənmə Alqoritmləri süni sistemlərin öyrənilməsi ilə əlaqədardır və AI sahəsinin bir bölməsidir və alqoritmlərin və texnikaların inkişafına imkan verir. kompüterin bəzi tapşırıqlarda performansını öyrənmək və təkmilləşdirmək üçün. Maşın öyrənməsinin bəzi hissələri verilənlərin əldə edilməsi ilə sıx bağlıdır və statistik metodların xüsusiyyətlərinə yönəlmişdir. Praktiki tətbiqə təbii dil emalı, axtarış sistemləri, tibbi diaqnostika, bioinformatika, nitqin tanınması, əl yazısının tanınması, kompüter görməsi və robot hərəkəti daxildir. İpoteka müraciətlərini təsdiqləmək üçün.[/fn]. Rədd edilmiş ərizəçi alqoritmin ipoteka ərizəçilərinə qarşı irqi ayrı-seçkilik olduğunu iddia edərək banka qarşı iddia qaldırır. Bank cavab verir ki, bu, qeyri-mümkündür, çünki alqoritm ərizəçinin yarışına qəsdən korluq edir. Reallıqda bu, bankın sistemin tətbiqi məntiqinin bir hissəsidir. Yenə də statistika göstərir ki, bankın qaradərili namizədləri təsdiqləmə dərəcəsi durmadan aşağı düşüb. On zahirən bərabər və həqiqi ixtisaslı namizədlərin təqdim edilməsi (müstəqil hakimlər heyəti tərəfindən müəyyən edildiyi kimi), alqoritmin ağ namizədləri qəbul etdiyi və qaradərili namizədləri rədd etdiyi aşkar edilir. Nə baş verə bilər?
 

Cavab tapmaq asan olmaya bilər. Maşın öyrənmə alqoritminin mürəkkəb neyron şəbəkəsinə və ya yönəldilmiş təkamül tərəfindən yaradılan genetik alqoritmə əsaslanmasından asılı olmayaraq, alqoritmin namizədləri irqlərinə görə niyə və hətta necə mühakimə etdiyini anlamaq demək olar ki, qeyri-mümkündür. Digər tərəfdən, qərar ağaclarına və ya Bayes şəbəkələrinə əsaslanan öyrənmə maşını proqramçı yoxlaması üçün daha şəffafdır (Hastie et al. 2001), bu da auditora AI alqoritminin namizədin ünvan məlumatından istifadə edib-etmədiyini aşkar etməyə imkan verə bilər. doğulduqları yerdə və ya əsasən yoxsul ərazilərdə yaşayırlarsa.
 

Süni intellekt alqoritmləri adətən “AI” kimi etiketlənməsə də, müasir cəmiyyətdə artan rol oynayır. Yuxarıda təsvir edilən ssenari bizim təsvir etdiyimiz kimi baş verə bilər. Yalnız güclü və genişlənən[fn]NT olmayan süni intellekt alqoritmlərini inkişaf etdirmək getdikcə daha vacib olacaq: Ölçəklənən sistem, aparatın əlavə edilməsi ilə performansını artıran sistemdir . Ölçeklenebilirlik elektron sistemlərdə, verilənlər bazalarında, kompüter şəbəkələrində və marşrutlaşdırıcılarda həyati əhəmiyyət kəsb edir. Telekommunikasiya və proqram mühəndisliyi sahəsində miqyaslılıq sistemdə, şəbəkədə və ya prosesdə arzu olunan xüsusiyyətdir, çünki sistemin böyüməyə hazır olub-olmadığını yoxlamaq və sistemin inkişaf etdirilməsinə əmin olmaq üçün etibarlı göstəricidir. işin artan hissəsini vahid şəkildə idarə etməkdə mahirdir. Məsələn, bu, resurslar (adətən aparat ) tələb olunduqda sistemin ümumi yükün artmasına tab gətirmək qabiliyyətinə aid ola bilər . Bənzər bir məna, bu sözün kommersiya baxımından istifadəsi ilə əlaqədardır, burada ölçeklenebilirlik şirkət daxilində iqtisadi artım üçün potensial təklif edən bir iş modelini nəzərdə tutur. (Onlayn olaraq mövcuddur: http://pt.wikipedia.org/wiki/Scalabilidade )[/fn], həm də yoxlama üçün şəffafdır – bir çox sosial əhəmiyyətli əmlakdan birini adlandırmaq üçün.
 

Bəzi etik maşın problemləri maşınların dizaynında iştirak edən digər problemlərə çox oxşardır. Diqqəti yayındırılmış insanları əzməmək üçün robot qolu dizayn etmək, alov gecikdirən divan dizaynından daha əxlaqi narahatlıq doğurmur. Bunlar yeni proqramlaşdırma problemləridir, lakin yeni etik çağırışlar deyil. Ancaq AI alqoritmləri sosial ölçülərlə - əvvəllər insanlar tərəfindən yerinə yetirilən idrak tapşırıqları ilə - idrak işi ilə məşğul olduqda, AI alqoritmi sosial tələbləri miras alır. Heç kəsin səbəbini bilmədən, dünyada heç bir bankın sizin əla görünən kredit müraciətinizi təsdiqləmək istəmədiyini və heç kimin hətta prinsipcə öyrənə bilməyəcəyini aşkar etmək, şübhəsiz ki, məyusedici olardı. (Bəlkə zəifliklə güclü bir şəkildə əlaqəli bir adınız var? Kim bilir?).
 

Şəffaflıq süni intellektin arzu olunan yeganə xüsusiyyəti deyil. Sosial funksiyaları üzərinə götürən AI alqoritmlərinin onları idarə edənlər üçün proqnozlaşdırıla bilən olması da vacibdir. Bu proqnozlaşdırıla bilənliyin əhəmiyyətini anlamaq üçün bir bənzətməni nəzərdən keçirin. Stare decisis- in hüquqi prinsipi [fn]NT: Stare decisis Latın dilindən tərcümədə “işləri qərara alınmış vəziyyətdə qoymaq” kimi tərcümə oluna bilən ifadədir. Bu ifadə qanunda məhkəmə orqanının qərarlarının presedent, yəni hüquqşünaslıq yaratdığı və gələcəkdə çıxarılacaq qərarları məcburi olan doktrinaya istinad etmək üçün istifadə olunur. (Onlayn olaraq mövcuddur: http://pt.wikipedia.org/wiki/Stare_decisis ).[/fn] mümkün olduqda hakimləri əvvəlkilərə əməl etməyə təşviq edir. Mühəndis üçün bu presedentə üstünlük verilməsi anlaşılmaz görünə bilər – texnologiya daim təkmilləşdiyi halda niyə gələcəyi keçmişlə bağlayaq? Lakin hüquq sisteminin ən mühüm funksiyalarından biri proqnozlaşdırıla bilən olmaqdır ki, məsələn, müqavilələr necə icra olunacağını bilə-bilə yazıla bilsin. Hüquq sisteminin işi mütləq cəmiyyəti yaxşılaşdırmaq deyil, vətəndaşların öz həyatlarını yaxşılaşdıra biləcəkləri proqnozlaşdırıla bilən mühiti təmin etməkdir.
 

Süni intellekt alqoritmlərinin manipulyasiyaya davamlı olması da getdikcə vacib olacaq . Hava limanlarında baqajı skan edən maşın görmə sistemi alqoritmdə qəsdən istifadə edilə bilən zəif cəhətləri axtaran insan düşmənlərinə qarşı dayanıqlı olmalıdır – məsələn, baqaj parçalarından birində tapançanın yanında yerləşdirilən forma, baqajın tanınmasını neytrallaşdıracaq. . Manipulyasiyaya qarşı müqavimət informasiya təhlükəsizliyində ümumi meyardır; demək olar ki meyardır . Ancaq bu, tez-tez maşın öyrənmə jurnallarında görünən bir meyar deyil - hazırda, məsələn, alqoritmin böyük paralel sistemlərdə necə genişlənməsi ilə daha çox maraqlanır.
 

Təşkilatlarda əməliyyatlar üçün digər mühüm sosial meyar bir işin görülməsinə cavabdeh olan şəxsi tapa bilməkdir. Süni intellekt sistemi ona verilən tapşırıqları yerinə yetirmədikdə, günahı kim üzərinə götürür? Proqramçılar? Son istifadəçilər? Müasir bürokratlar tez-tez məsuliyyəti geniş şəkildə bölüşdürən müəyyən edilmiş prosedurlara sığınırlar, belə ki, bir şəxs nə müəyyən edilə bilər, nə də fəlakətlərin nəticələrinə görə günahlandırıla bilməz (Howard 1994). Mütəxəssis sisteminin yəqin ki, nümayişkaranə maraqsız mühakiməsi daha yaxşı bir sığınacaq ola bilər . Süni intellekt sistemi istifadəçinin dəyişdirilməsi ilə tərtib olunsa belə, dəyişdirmə səhv olarsa, şəxsi məsuliyyət daşıyacaq və hər hansı çətin qərara görə AI-ni günahlandırmağa üstünlük verən bir bürokratın karyera həvəsini nəzərə almaq məcburiyyətidir. mənfi nəticə ilə.
 

Hesabatlılıq, şəffaflıq, yoxlanıla bilənlik, pozulmazlıq, proqnozlaşdırıla bilənlik və günahsız qurbanları çarəsiz məyusluq içində qışqırmağa məcbur etməmək meyli: bütün meyarları sosial funksiyaları yerinə yetirən insanlara tətbiq edirik; sosial funksiyalar haqqında insan mülahizələrini əvəz etmək üçün nəzərdə tutulmuş alqoritmdə nəzərə alınmalı olan bütün meyarlar; bir alqoritmin daha çox kompüter üçün mütənasib olaraq nə qədər genişləndiyini nəzərə alaraq, maşın öyrənmə jurnalında görünməyən bütün meyarlar. Bu meyarlar siyahısı heç bir halda tam deyil, lakin getdikcə kompüterləşən cəmiyyətin nələr haqqında düşünməli olduğuna dair kiçik bir nümunə kimi xidmət edir.
 

Süni Ümumi İntellekt
 

Müasir süni intellekt mütəxəssisləri arasında demək olar ki, universal razılıq var ki, süni intellekt sistemləri bəzi kritik mənada insan imkanlarından geri qalır, baxmayaraq ki, süni intellekt alqoritmləri şahmat kimi bir çox xüsusi sahələrdə insanları məğlub edib. Bəziləri tərəfindən belə bir fikir irəli sürülür ki, süni intellekt tədqiqatçıları nəyisə necə etmək lazım olduğunu kəşf edən kimi, bu qabiliyyət ağıllı sayılmaqdan çıxır – Deep Blue dünya çempionatında Kasparovu məğlub edənə qədər şahmat zəkanın təcəssümü hesab olunurdu – lakin hətta bu tədqiqatçılar belə razılaşırlar. müasir süni intellektlərdə vacib bir şeyin çatışmadığını (bax: Hofstadter 2006).
 

Süni İntellektin bu alt sahəsi vahid şəkildə böyüyərkən, "Süni Ümumi İntellekt" (AGI) "real" AI təyin etmək üçün istifadə olunan yeni termindir (bax, məsələn, Goertzel və Pennachin 2006 tərəfindən redaktə edilmiş cildi) . Adından da göründüyü kimi, ortaya çıxan konsensus çatışmayan xüsusiyyətin ümumilik olmasıdır. İnsana bərabər və ya daha yaxşı performansa malik hazırkı AI alqoritmləri tək, məhdud domendə məqsədli şəkildə proqramlaşdırılmış səriştə ilə xarakterizə olunur. Deep Blue şahmat üzrə dünya çempionu olub, lakin o, dama oynaya bilmir, nə maşın sürə bilir, nə də elmi kəşf edir. Belə müasir süni intellekt alqoritmləri yalnız Homo sapiens istisna olmaqla, bioloji həyatın bütün formalarına bənzəyir . Arı pətək tikməkdə bacarıq nümayiş etdirir; qunduz bənd tikməkdə bacarıq nümayiş etdirir; amma arı bənd tikə bilməz, qunduz pətək qurmağı öyrənə bilməz. İnsan, müşahidə edərək, hər ikisini etməyi öyrənə bilər; lakin bu, bioloji həyat formaları arasında unikal bir qabiliyyətdir. İnsan intellektinin həqiqətən ümumi olub-olmaması mübahisəlidir – biz əlbəttə ki, bəzi idrak tapşırıqlarında digərlərindən daha yaxşıyıq (Hirschfeld və Gelman 1994) – lakin insan zəkasının, şübhəsiz ki, qeyri-homid intellektinə nisbətən əhəmiyyətli dərəcədə daha çox tətbiq oluna bilər.
 

Süni intellektin yalnız müəyyən bir domen daxilində işləməsi nəticəsində yarana biləcək təhlükəsizlik problemlərini təsəvvür etmək nisbətən asandır. Əvvəlcədən proqnozlaşdırıla bilməyən bir çox yeni kontekstlərdə fəaliyyət göstərən IAG-ni manipulyasiya etmək keyfiyyətcə fərqli problem sinfidir.
 

İnsan mühəndisləri nüvə reaktoru qurarkən, bu hadisələrin fəlakətə çevrilməsinin qarşısını almaq üçün onun daxilində baş verə biləcək xüsusi hadisələri - klapanların nasazlığı, kompüter nasazlığı, nüvədə temperaturun yüksəlməsini proqnozlaşdırırlar. Yaxud daha dünyəvi səviyyədə toster qurmaq çörəyi proqnozlaşdırmaq və çörəyin tosterin qızdırıcı elementlərinə reaksiyasını proqnozlaşdırmaqdan ibarətdir. Toster özü bilmir ki, onun məqsədi tost hazırlamaqdır - tosterin məqsədi dizaynerin zehnində təmsil olunur, lakin tosterin içərisindəki hesablamalarda açıq şəkildə təmsil olunmur - və əgər tosterin içərisinə parça qoysanız, o, layihə gözlənilməz kontekstdə, gözlənilməz yan təsirlə həyata keçirildiyi üçün yanğın ola bilər.
 

Hətta tapşırıq üçün xüsusi süni intellekt alqoritmləri bizi toster paradiqmasından, xüsusilə proqnozlaşdırıla bilən, yerli olaraq əvvəlcədən proqramlaşdırılmış davranış sahəsindən kənara qoyur. Dünya şahmat çempionatında Qarri Kasparovu məğlub edən şahmat alqoritmi Deep Blue- ya nəzər salaq . Maşınların dediklərini tam olaraq edə biləcəyi fərziyyəsinə görə, proqramçılar Deep Blue-nun tapa biləcəyi hər şahmat mövqeyi üçün mümkün hərəkətləri ehtiva edən verilənlər bazasını əl ilə əvvəlcədən proqramlaşdırmalı olacaqlar . Lakin bu, Deep Blue proqramçıları üçün bir seçim deyildi . Birincisi, mümkün şahmat mövqelərinin məkanı olduqca idarəolunmazdır. İkincisi, proqramçılar hər bir mümkün vəziyyətdə yaxşı bir hərəkət hesab etdiklərini əl ilə daxil etməli olsaydılar, yaranan sistem yaradıcılarından daha güclü şahmat hərəkətləri edə bilməzdi. Proqramçıların özləri dünya çempionu olmadığı üçün bu sistem Qarri Kasparovu məğlub edə bilməzdi.
 

Super şahmat oyunçusunu yaratarkən, insan proqramçıları Deep Blue- nun xüsusi oyun davranışı üçün yerli proqnozlaşdırma qabiliyyətini mütləq qurban verdilər . Bunun əvəzinə, Deep Blue -nun proqramçıları (əsaslandırıla bilən) əmin idilər ki, Deep Blue -nun şahmat hərəkətləri yerli olmayan optimallaşdırma meyarını ödəyəcək: yəni bu hərəkətlər oyunun gələcək nəticəsini “qalib” regionda istiqamətləndirməyə meylli olacaq. şahmat qaydaları ilə müəyyən edildiyi kimi . Uzaq nəticələrlə bağlı bu proqnoz, doğru olsa da, proqramçılara Deep Blue -nun yerli davranışını – onun öz padşahına verilən hücuma cavabını – proqnozlaşdırmağa imkan vermədi, çünki Deep Blue yerli olmayan oyun xəritəsini, hərəkət və hərəkət arasındakı əlaqəni hesablayır. proqramçıların edə biləcəyindən daha dəqiqliklə onların mümkün gələcək nəticələri (Yudkowsky 2006).
 

Müasir insanlar özlərini qidalandırmaq üçün sözün həqiqi mənasında milyonlarla şey edirlər - qidalanmanın son məqsədinə xidmət etmək üçün. Bu fəaliyyətlərdən bəziləri bizim bilavasitə uyğunlaşdığımız ata-baba çağırışı mənasında “Təbiət tərəfindən proqnozlaşdırılırdı”. Lakin bizim uyğunlaşdırılmış beynimiz əhəmiyyətli dərəcədə daha ümumi tətbiq oluna biləcək qədər gücləndi; Bu, bizə çoxsaylı domenlər üzrə milyonlarla müxtəlif fəaliyyətin nəticələrini proqnozlaşdırmağa və son nəticələrə üstünlüklərimizi tətbiq etməyə imkan verir. İnsanlar Aya öz izlərini qoymaq üçün kosmosdan keçiblər, baxmayaraq ki, əcdadlarımızın heç biri vakuuma bənzər bir problemlə qarşılaşmayıb. Süni intellektin spesifik sahəsi ilə əlaqədar olaraq, minlərlə kontekstdə, o cümlədən heç bir dizayner və ya istifadəçilər tərəfindən xüsusi olaraq proqnozlaşdırılmayan kontekstlərdə, o cümlədən heç bir insanın indiyə qədər istifadə etmədiyi kontekstlərdə təhlükəsiz işləyəcək bir sistemin dizaynı keyfiyyətcə fərqli bir problemdir. qarşılaşdı. Hal-hazırda yaxşı davranışın heç bir yerli spesifikasiyası ola bilməz - insanın öz davranışları haqqında sadə spesifikasiyadan başqa, insanların gündəlik çörəyini əldə etdikləri bütün yolların yığcam yerli təsviri yoxdur.
 

Mühəndislərin heç vaxt açıq şəkildə gözləmədiyi problemlər də daxil olmaqla, bir çox nəticələri, o cümlədən bir çox domenlər üzrə fəaliyyət göstərərkən təhlükəsiz hərəkət edən AI yaratmaq üçün yaxşı davranışı “X” kimi ifadələrlə ifadə etmək lazımdır ki, insanların nəticəsi olsun . Bu yerli deyil; və hərəkətlərimizin uzaq nəticələrinin ekstrapolyasiyası daxildir. Beləliklə, bu, sistem öz davranışının nəticələrini açıq şəkildə ekstrapolyasiya edərsə, dizayn xüsusiyyəti kimi həyata keçirilə bilən yalnız effektiv spesifikasiyadır . Toster bu dizayn xüsusiyyətinə malik ola bilməz , çünki toster çörək qızartmasının nəticələrini təxmin edə bilməz.
 

Təsəvvür edin ki, bir mühəndis belə deməlidir: “Yaxşı, mənim inşa etdiyim bu təyyarənin necə təhlükəsiz uça biləcəyi barədə heç bir fikrim yoxdur – əslində onun necə bir şey edəcəyi, qanadlarını çırpacağı və ya heliumla şişəcəyi barədə heç bir fikrim yoxdur. başqa təsəvvür belə edə bilmirəm, amma sizi əmin edirəm ki, layihə çox, çox təhlükəsizdir”. Bu, ictimaiyyətlə əlaqələr nöqteyi-nəzərindən həsəd aparan mövqe kimi görünə bilər, lakin uzaq nəticələrə üstünlük verən gözlənilməz, çoxdomenli problemlər üzrə ümumi kəşfiyyat əməliyyatı üçün etik davranışın başqa hansı təminatının mümkün olacağını görmək çətindir. İdrak dizaynını təftiş edərək görə bilərik ki, ağıl əslində etik olaraq təsnif edəcəyimiz həllər axtarırdı; lakin ağlın hansı konkret həlli tapacağını təxmin edə bilmirdik.
 

Bu yoxlamaya hörmət etmək etimad zəmanətlərini ("AI həqiqətən təhlükəsiz olmadığı təqdirdə AI təhlükəsizdir" demək istəmirəm) saf ümid və sehrli düşüncədən ("Fəlsəfə Daşının necə dönəcəyi barədə heç bir fikrim yoxdur") fərqləndirməyin bir yolunu tələb edir. qızıla aparır, amma sizi əmin edirəm ki, olacaq!”). Nəzərə almaq lazımdır ki, sırf ümidverici gözləntilər bir vaxtlar süni intellekt tədqiqatlarında problem idi (McDermott 1976).
 

Etibarlı IAG qurmaq , elektrik stansiyasının proqram təminatındakı nasazlığı yoxlamaq üçün açıq şəkildə müxtəlif üsullar və fərqli düşüncə tərzi tələb edəcəkdir [fn]NT: Orijinal mətndə burada istifadə olunan ifadə “ elektrik stansiyası ”dır, hansı ki, elektrik stansiyası, istehsal stansiyası və ya elektrik stansiyası. Demək olar ki, hər bir elektrik stansiyasının mərkəzində bir generator, maqnit sahəsi ilə keçirici arasında nisbi hərəkət yaradaraq mexaniki enerjini elektrik enerjisinə çevirən fırlanan maşın dayanır.[/fn] – bunun üçün insan mühəndisi kimi düşünən İAG tələb olunacaq. yalnız etik mühəndisliyin sadə bir məhsulu deyil, etika ilə maraqlanır.
 

Bu şəkildə, etik AI intizamı, xüsusən də IAG-a tətbiq edildikdə, qeyri-koqnitiv texnologiyaların etik intizamından əsaslı şəkildə fərqlənə bilər, çünki:
 

 

 

 

 

Mənəvi statusu olan maşınlar
 

Gələcək bəzi süni intellekt sistemlərinin əxlaqi statusa malik olmaq üçün namizəd ola biləcəyi ehtimalını nəzərdən keçirərkən fərqli etik suallar dəsti yaranır . Əxlaqi statusa malik olan varlıqlarla münasibətlərimiz yalnız alətli rasionallıq məsələsi deyil: bizim də onlarla müəyyən üsullarla rəftar etmək və başqa cür davranmaqdan çəkinmək üçün mənəvi səbəblərimiz var. Frensis Kamm , məqsədlərimizə xidmət edəcək mənəvi statusun aşağıdakı tərifini təklif etdi :
 

X əxlaqi statusa malikdir = çünki X öz hüququna görə əxlaqi hesab edir və ona öz xeyri üçün bir şey etməyə icazə verilir/qadağan olunur. (Kamm 2007: bölmə 7; parafraz).
 

Daşın mənəvi statusu yoxdur : biz onu əzmək, toz halına salmaq və ya qayanın özünə heç bir əhəmiyyət vermədən istədiyimiz hər hansı müalicəyə məruz qoya bilərik. İnsana isə təkcə bir vasitə kimi deyil, həm də məqsəd kimi baxmaq lazımdır. Bir insana məqsəd kimi yanaşmağın tam olaraq nə demək olduğu müxtəlif etik nəzəriyyələrin razılaşmadığı bir şeydir; lakin bu, şübhəsiz ki, onun qanuni maraqlarını nəzərə almağı – onun rifahına önəm verməyi – və həmçinin onunla münasibətlərimizdə onu öldürmək, ondan oğurluq etmək və ya bir sıra cinayətlər törətmək qadağanı kimi ciddi mənəvi məhdudiyyətləri qəbul etməyi də əhatə edə bilər. razılığı olmadan onun əmlakına başqa şeylər. Üstəlik, insanın özü və onun rifahı üçün vacib olduğu üçün ona bu işləri görmək qadağandır. Bunu daha yığcam şəkildə ifadə etmək olar ki , insan mənəvi məqama malikdir .
 

Əxlaqi vəziyyətlə bağlı suallar praktiki etikanın bəzi sahələrində vacibdir. Məsələn, abortun əxlaqi qanuniliyi ilə bağlı mübahisələr çox vaxt embrionun mənəvi vəziyyəti ilə bağlı fikir ayrılıqlarına səbəb olur. Heyvanların təcrübələri və qida sənayesində heyvanların müalicəsi ilə bağlı mübahisələr müxtəlif heyvan növlərinin mənəvi vəziyyəti ilə bağlı sualları ehtiva edir. Və son mərhələdə Alzheimer xəstələri kimi ağır demanslı insanlara qarşı öhdəliklərimiz də mənəvi vəziyyət suallarından asılı ola bilər .
 

Hazırkı süni intellekt sistemlərinin heç bir mənəvi statusu olmadığı geniş şəkildə qəbul edilir . Biz kompüter proqramlarını istədiyimiz qədər dəyişdirə, kopyalaya, ləğv edə, silə və ya istifadə edə bilərik, heç olmasa proqramların özləri ilə bağlı. Müasir süni intellekt sistemləri ilə münasibətlərimizdə tabe olduğumuz mənəvi məhdudiyyətlərin hamısı sistemlərin özlərinə olan hüquqlara deyil, digər insanlar kimi digər varlıqlara qarşı məsuliyyətlərimizə əsaslanır.
 

Hazırda süni intellekt sistemlərinin əxlaqi statusa malik olmaması ilə bağlı konsensus olsa da , mənəvi statusun əsasında hansı atributların dayandığı dəqiq deyil . Əxlaqi statusla əhəmiyyətli dərəcədə əlaqəli olan iki meyar tək və ya kombinasiyada təklif olunur: həssaslıq və ağıllılıq (və ya şəxsiyyət). Bunları təxminən aşağıdakı kimi xarakterizə etmək olar:
 

Həssaslıq: ağrı və əzab çəkmə qabiliyyəti kimi fenomenal təcrübə və ya keyfiyyət qabiliyyəti ;
 

Sapience: özünü dərk etmək və məsuliyyətli rasional agent olmaq kimi daha yüksək zəka ilə əlaqəli qabiliyyətlər toplusu.
 

Ümumi fikir ondan ibarətdir ki, bir çox heyvanların keyfiyyəti var və buna görə də müəyyən əxlaqi statusa malikdir , lakin yalnız insanların müdrikliyi var ki, bu da onlara qeyri-insani heyvanlardan daha yüksək əxlaqi status mənəvi statusu var , ona görə deyil ki, insan öz həyatını xilas etməkdə quşdan daha çox maraqlıdır. [/fn]. Bu baxış, əlbəttə ki, bir tərəfdən, uşaqlar və ya ciddi əqli cəhətdən geridə qalan insanlar - bəzən təəssüf ki, "marjinal insanlar" kimi adlandırılır - səbirlilik meyarlarına cavab verməyən sərhəd hallarının mövcudluğu ilə mübarizə aparmalıdır; və digər tərəfdən, bəzi qeyri-insani heyvanlar, məsələn, böyük meymunlar, ən azı bəzi zəka elementlərinə malik ola bilər. Bəziləri “marginal adam” adlanan şəxsin tam mənəvi statusa malik olduğunu inkar edir . Digərləri, bir cismin əxlaqi status daşıyıcısı kimi təsnif edilə bilməsi üçün əlavə yollar təklif edirlər , məsələn, normal olaraq həssaslıq və ya təmkinli bir növün üzvü olmaq və ya müstəqil əxlaqi statusu olan bəzi varlıqlarla uyğun münasibətdə olmaq (müq. .Mary Anne Warren 2000). Bununla belə, mətnin məqsədləri üçün həssaslıq və həssaslıq meyarlarına diqqət yetirəcəyik.
 

Əxlaqi statusun bu mənzərəsi onu göstərir ki, AI sistemi ağrı hiss etmə qabiliyyəti kimi keyfiyyətli imkanlara malik olsa , müəyyən mənəvi statusa malik olacaqdır . Həssas süni intellekt sistemi, dil və digər yüksək koqnitiv qabiliyyətlərə malik olmasa belə, doldurulmuş heyvan və ya kukla kimi olmayacaq; daha çox canlı heyvan kimi olacaq. Kifayət qədər güclü səbəblər və üstünlük təşkil edən mənəvi səbəblər olmadıqca, siçana ağrı vermək düzgün deyil. Eyni şey hər hansı bir həssas AI sisteminə aiddir. Əgər süni intellekt sistemi şüurdan əlavə, normal bir yetkin insanınkinə bənzər bir növ zəkaya malikdirsə, o zaman o, həm də insanlarınkinə bərabər tam mənəvi statusa malik olacaqdır.
 

Bu əxlaqi qiymətləndirmənin altında yatan fikirlərdən biri ayrı-seçkiliyə yol verməmək prinsipi kimi ən güclü şəkildə ifadə edilə bilər:
 

Substrat Qeyri-diskriminasiya Prinsipi
 

Əgər iki varlıq eyni funksionallığa və eyni şüurlu təcrübəyə malikdirsə və yalnız onların tətbiqi substratına görə fərqlənirsə, deməli onlar eyni mənəvi statusa malikdirlər .
 

Bu prinsipin lehinə mübahisə etmək olar, çünki onu rədd etmək irqçiliyə bənzər bir mövqenin mənimsənilməsinə bərabər olardı: substratın əsas mənəvi əhəmiyyəti yoxdur, eyni şəkildə və eyni səbəbdən dəri rəngi də yoxdur. Substratın Ayrı-seçkilik etməməsi Prinsipi rəqəmsal kompüterin şüurlu ola biləcəyini və ya onun insan kimi eyni funksiyalara malik ola biləcəyini ifadə etmir. Substrat, həssaslıq və ya funksionallıq üçün fərq yaratdığı dərəcədə mənəvi cəhətdən uyğun ola bilər. Ancaq bunları sabit saxlayaraq, varlığın silikondan və ya karbondan olmasının, ya da beynin yarımkeçiricilərdən və ya neyrotransmitterlərdən istifadə etməsinin heç bir mənəvi fərqi yoxdur.
 

Təklif edilə bilən əlavə prinsip ondan ibarətdir ki, süni intellekt sistemlərinin süni olması, yəni düşünülmüş dizaynın məhsulu olması onların mənəvi vəziyyətinə əsaslı şəkildə aid deyil . Bunu aşağıdakı kimi formalaşdıra bilərik:
 

Ontogenezdə ayrı-seçkiliyə yol verilməməsi prinsipi
 

Əgər iki varlıq eyni funksionallığa və eyni şüur ​​təcrübəsinə malikdirsə və yalnız yaranma yolu ilə fərqlənirsə, deməli, onlar eyni mənəvi statusa malikdirlər.
 

Bu gün bu fikir insanlar üçün geniş şəkildə qəbul edilir - baxmayaraq ki, bəzi insan qruplarında, xüsusən də keçmişdə mənəvi statusun nəsildən və ya kastadan asılı olması fikri təsirli olmuşdur. Ailənin planlaşdırılması, doğuşa köməklik, in vitro mayalanma , gametlərin seçilməsi, ananın qidalanmasının qəsdən yaxşılaşdırılması və s. kimi səbəbkar amillərə inanmırıq. – insanın yaradılışına düşünülmüş seçim və dizayn elementini daxil edən – nəslin əxlaqi statusu üçün hər hansı zəruri təsirə malikdir. Hətta əxlaqi və ya dini səbəblərə görə insanın çoxalması üçün klonlamaya qarşı çıxanlar belə, ümumiyyətlə qəbul edirlər ki, əgər insan klonu yaranarsa, o, hər hansı digər insan övladı ilə eyni əxlaqi statusa malik olardı. Ontogenezin Ayrı-seçkilik etməməsi Prinsipi bu əsaslandırmanı tamamilə süni idrak sistemlərini əhatə edən hallara da şamil edir.
 

Göründüyü kimi, yaradılış şərtləri altında meydana gələn nəslə onların mənəvi vəziyyətini dəyişdirəcək şəkildə təsir etmək mümkündür . Məsələn, əgər konsepsiya və ya hamiləlik zamanı aparılan hansısa prosedur beyinsiz insan dölünün inkişafına səbəb olarsa, onda ontogenezlə bağlı bu fakt nəslin mənəvi vəziyyəti haqqında mülahizəmizə uyğun olardı. Bununla belə, anensefalik uşaq, tamamilə təbii bir proseslə doğulmuş uşaq da daxil olmaqla, hər hansı digər oxşar anensefalik uşaq kimi eyni mənəvi statusa sahib olacaqdır. Anensefal uşaqla normal uşaq arasındakı əxlaqi status fərqi ikisi arasındakı keyfiyyət fərqinə əsaslanır - birinin ağlı var, digərinin isə yox. Nə qədər ki, iki uşaq eyni funksionallıq və eyni şüurlu təcrübəyə malik deyillər, Ontogenezdə Ayrı-seçkiliyin Yolverilməzliyi Prinsipi tətbiq edilmir.
 

Ontogenezin ayrı-seçkilik etməməsi prinsipi varlıqların ontogenezinin onların əxlaqi statusuna əsaslı aidiyyəti olmadığını iddia etsə də , ontogenezlə bağlı faktların əxlaqi agentlərin sözügedən varlıq qarşısında götürdükləri xüsusi öhdəliklərə təsir edə biləcəyini inkar etmir. Valideynlərin övladları qarşısında digər uşaqlara qarşı sahib olmadıqları və keyfiyyətcə onlarınkinə eyni olan başqa bir uşaq olsa belə, sahib ola bilməyəcəkləri xüsusi vəzifələri vardır. Eynilə, Ontogenezin Ayrı-seçkilikdən Mübarizə Prinsipi əxlaqi statusa malik süni intellekt sisteminin yaradıcılarının və ya sahiblərinin öz süni ağılları üçün xüsusi hüquqlara malik ola biləcəyi iddiası ilə uyğun gəlir, hətta onların digər süni ağıllara malik olmadıqları halda, sualları keyfiyyətcə oxşardır və eyni mənəvi statusa malikdir .

 

Substrat və ontogenez ilə bağlı ayrı-seçkiliyin olmaması prinsipləri qəbul edilərsə, süni ağıllara necə davranmalı olduğumuza dair bir çox suallara daha tanış kontekstlərdə vəzifələrimizi müəyyən etmək üçün istifadə etdiyimiz eyni əxlaqi prinsipləri tətbiq etməklə cavab verə bilərsiniz. Əxlaqi vəzifələr əxlaqi vəziyyətlə bağlı mülahizələrdən irəli gələn dərəcədə , biz süni ağılla eyni vəziyyətdə keyfiyyətcə eyni olan təbii insan şüuruna münasibət bildirməliyik. Bu, süni ağılların müalicəsi üçün etikanın inkişaf etdirilməsi problemini asanlaşdırır.

 

Bu mövqeyi qəbul etsək belə, yuxarıda qeyd olunan prinsiplərin cavabsız qoyduğu bir sıra yeni etik suallarla qarşılaşmalıyıq. Yeni etik suallar yaranır, çünki süni ağıllar adi insan və ya heyvan ağıllarından çox fərqli xüsusiyyətlərə malik ola bilər. Bu yeni xüsusiyyətlərin süni ağılların mənəvi vəziyyətinə necə təsir edəcəyini və bu cür ekzotik ağılların mənəvi vəziyyətinə hörmət etməyin nə demək olduğunu düşünməliyik .
 

Ekzotik xüsusiyyətlərə malik ağıllar
 

İnsanlara gəldikdə, biz normal insan davranışını nümayiş etdirən hər hansı bir şəxsə həssaslıq və şüurlu təcrübə aid etməkdən çəkinmirik. Çox az adam mükəmməl normal hərəkət edən, lakin şüurlu olmayan başqa insanların olduğuna inanır. Bununla belə, digər insanlar təkcə özümüzə bənzər tərzdə normal insanlar kimi davranmırlar; onların da bizimkinə çox bənzəyən beyinləri və koqnitiv arxitekturaları var. Süni intellekt, əksinə, insan intellektindən bir qədər fərqli ola bilər və yenə də insana bənzər davranış nümayiş etdirə bilər və ya adətən şəxsiyyəti göstərən davranış meyllərinə malikdir. Buna görə də, ağıllı və bəlkə də bir insan olacaq, lakin şüurlu və ya hər hansı bir şüurlu təcrübəyə sahib olmayan bir süni intellekt təsəvvür etmək mümkün olardı. (Bunun həqiqətən mümkün olub-olmaması bəzi qeyri-trivial metafizik sualların cavablarından asılıdır.) Əgər belə bir sistem mümkün olsaydı, ağlı olmayan bir insanın hər hansı bir əxlaqi statusu olub-olmayacağı sualını ortaya çıxarardı ; və bu halda həssas insan kimi mənəvi məqama sahib olardı. Həssaslıq  ya ən azı hiss qabiliyyəti, adətən bir şəxs olan hər bir fərddə mövcud olduğu güman edilir; Bu suala indiyə qədər çox diqqət yetirilməmişdir [fn]Bu sual zehniyyət fəlsəfəsində çox diqqət çəkən bəzi problemlərlə, xüsusən də aşağıdakı kimi formalaşdırıla bilən “zombi problemi” ilə bağlıdır: a dünya Bütün fiziki faktlara (bütün beyinlərin və orqanizmlərin dəqiq fiziki mikrostrukturu daxil olmaqla) görə real dünya ilə eyni olması, lakin bəzi fenomenal faktlara (subyektiv təcrübə) görə real dünyadan fərqli olması metafizik cəhətdən mümkündürmü? )? Daha kobud desək, metafizik baxımdan, fiziki və tam olaraq sizinlə eyni olan, lakin “zombi”, yəni keyfiyyətsiz və fenomenal şüursuz bir insanın olması mümkündürmü ? (David Chalmers, 1996) Bu tanış məsələ mətndə qeyd olunanlardan fərqlidir: bizim “zombi”mizin normal insanlardan sistematik olaraq fərqli fiziki xüsusiyyətlərə malik olmasına icazə verilir. Əlavə olaraq, diqqəti ağıllı zombinin etik statusuna cəlb etmək istəyirik .[/fn].
 

Süni intellektin metafizik və fiziki cəhətdən şübhəsiz mümkün olan başqa bir ekzotik xüsusiyyəti zamanın subyektiv sürətinin insanın bioloji beyninə xas olan sürətdən kəskin şəkildə yayınmasıdır. Subyektiv vaxt anlayışı əvvəlcə bütün beyin emulyasiyası və ya “yükləmə” ideyasını təqdim etməklə ən yaxşı şəkildə izah olunur [fn]NT: “ Yükləmə ” sözünün hərfi tərcüməsi mətni başa düşməkdə problemlər yaradar. Ona görə də biz sözün ilkin formada saxlanmasını daha məqsədəuyğun hesab edirik. Bu kontekstdə yükləmənin nə demək olduğunu daha yaxşı başa düşmək üçün indi Anders Sandberg ilə əməkdaşlıq edən Bostromun başqa bir mətnində tapıla bilər: “Beyin emulyasiyası konsepsiyası: Çox vaxt qeyri-rəsmi olaraq “yükləmə” və ya “yükləmə” adlanan bütün beyin emulyasiyası bir çox elmi fantastika mövzusu və həmçinin bəzi ilkin tədqiqatlar (...). Əsas ideya müəyyən bir beyni götürmək, onun strukturunu təfərrüatlı şəkildə skan etmək və onun orijinala o qədər sadiq bir proqram modelini qurmaqdır ki, müvafiq aparatla işlədikdə o, mahiyyətcə orijinal beyinlə eyni şəkildə davranacaq. .” . ( “Hole Brain Emulation”. Onlayn olaraq mövcuddur:) Sərbəst tərcümədə: “Beyin emulyasiyası konsepsiyası: Çox vaxt qeyri-rəsmi olaraq “ yükləmə ” və ya “ yükləmə ” adlanan Bütün Beyin Emulyasiyası bir çox elmi fantastikanın və həmçinin bəzi ilkin araşdırmaların mövzusu olmuşdur. təhsil alır (...). Əsas ideya xüsusi beyin götürmək, onun strukturunu təfərrüatlı şəkildə skan etmək və orijinala o qədər sadiq bir proqram modeli qurmaqdır ki, müvafiq aparatla işlədikdə o, əsasən orijinal beyin kimi davranacaq.” .[/fn]. “Yüklənir”insan və ya digər heyvan intellektini üzvi beyindəki ilkin tətbiqindən rəqəmsal kompüterə köçürməyə imkan verən gələcək fərziyyə texnologiyasına aiddir. Belə bir ssenari: Birincisi, beynin bəzi xüsusiyyətlərinə yüksək ayırdetmə qabiliyyətinə malik bir skan edilir və bu prosesdə orijinalı məhv edə bilər. Məsələn, beyin şüşələşdirilə və nazik dilimlərə bölünə bilər, daha sonra avtomatik görüntü tanınması ilə birlikdə yüksək tutumlu mikroskopun hansısa formasından istifadə etməklə skan edilə bilər. Təsəvvür edə bilərik ki, bu təhlil bütün neyronları, onların sinaptik qarşılıqlı əlaqəsini və orijinal beynin əməliyyatlarına funksional olaraq uyğun gələn digər xüsusiyyətləri tutmaq üçün kifayət qədər ətraflı olmalıdır. İkincisi, beynin komponentlərinin və onların qarşılıqlı əlaqələrinin bu üçölçülü xəritəsi müxtəlif növ neyronlar və sinaptik qovşaqlar kimi elementlərin hər bir əsas növünün hesablama xüsusiyyətlərini təyin edən qabaqcıl nevrologiya nəzəriyyələri kitabxanası ilə birləşdirilir. Üçüncüsü, hesablama strukturu və onun komponentlərinin əlaqəli davranış alqoritmləri bəzi güclü kompüterlərdə həyata keçirilir. Yükləmə prosesi uğurlu olarsa, kompüter proqramı indi orijinal beynin əsas funksional xüsusiyyətlərini təkrarlamalıdır. Nəticə yüklənmə simulyasiya edilmiş virtual reallıqda yerləşə bilər və ya alternativ olaraq ona xarici fiziki reallıqla birbaşa əlaqə yaratmağa imkan verən robot bədənə nəzarət verilə bilər.
 

Belə bir ssenari kontekstində bir sıra suallar yaranır: Bu prosedurun bir gün texnoloji cəhətdən əlverişli olacağı nə dərəcədə inandırıcıdır? Prosedur işləmiş və orijinal beyinlə təxminən eyni şəxsiyyəti, eyni xatirələri və eyni düşüncə formalarını nümayiş etdirən bir kompüter proqramı yaratmışsa, bu proqram həssas ola bilərmi? Yükləyən, yükləmə prosesində beyni sökülən şəxslə eyni şəxsdirmi? Yükləmənin iki oxşar və ya keyfiyyətcə eyni məzmunun paralel olaraq yerinə yetiriləcəyi şəkildə kopyalandıqda şəxsi şəxsiyyətə nə baş verir ? Bütün bu suallar süni intellekt etikasına aid olsa da, burada biz zamanın subyektiv dərəcəsi anlayışı ilə bağlı məsələyə diqqət yetirəcəyik.
 

Tutaq ki, bir yükləmə həssas ola bilər. Köçürmə proqramını daha sürətli bir kompüterdə işə salsaq, bu , video kamera kimi bir giriş cihazına qoşulduqda, yüklənmənin xarici dünyanı yavaşladığını qəbul etməsinə səbəb olacaqdır. Məsələn, əgər yükləmə orijinal beyindən minlərlə dəfə sürətli işləyirsə, o zaman xarici dünya yükləməyə sanki min dəfə yavaşlamış kimi görünəcək. Kimsə fiziki bir fincan qəhvə düşür: Upload , səhər qəzetini oxuyub bitirən kimi fincanın yavaş-yavaş yerə düşməsini izləyir və bir neçə e-poçt göndərir. Obyektiv vaxtın bir saniyəsi 17 dəqiqə subyektiv vaxta uyğundur. Obyektiv və subyektiv müddət daha sonra fərqlənə bilər.
 

Subyektiv vaxt subyektin zamanın nə qədər sürətlə axdığı ilə bağlı olduğu eyni təxmin və ya qavrayış deyil. İnsanlar tez-tez zamanın axını ilə çaşqın olurlar. Əslində 2:15 olduğu halda 1 saat olduğuna inana bilərik; və ya bir stimullaşdırıcı dərman düşüncələrimizi sürətləndirə bilər, əslində olduğundan daha subyektiv vaxt keçmiş kimi görünür. Bu dünyəvi hallar subyektiv zaman sürətinin dəyişməsindən çox, zamanın təhrif olunmuş qavrayışını əhatə edir. Keçmiş kokain asılılığı olan beyində belə, yəqin ki, nevroloji hesablamaların əsas sürətində əhəmiyyətli dəyişiklik yoxdur; Çox güman ki, dərman beynin bir düşüncədən digərinə daha tez titrəməsinə səbəb olur ki, bu da onun daha çox sayda fərqli düşüncələri düşünməyə daha az subyektiv vaxt sərf etməsinə səbəb olur.
 

Zamanın subyektiv sürətinin dəyişkənliyi yeni etik suallar doğuran süni ağılların ekzotik xüsusiyyətidir. Məsələn, təcrübə müddətinin etik cəhətdən uyğun olduğu hallarda, müddətlər obyektiv və ya subyektiv zamanla ölçülməlidirmi? Əgər yükləyən şəxs cinayət törədibsə və dörd il həbs cəzasına məhkum edilibsə, bu dörd obyektiv il ola bilərmi - bu, bir çox minillik subyektiv vaxta uyğun ola bilər - yoxsa dörd subyektiv il olmalıdır ki, bu, bir neçə ildən bir qədər çox ola bilər. obyektiv vaxt günləri? Əgər inkişaf etmiş süni intellekt və insan ağrı çəkirsə, süni intellektin ağrısını yüngülləşdirmək daha vacibdir, çünki o, hər ulduz saniyəsi üçün daha böyük subyektiv ağrı müddəti yaşayır [fn]NT: Sidereal Zaman "zaman ulduzu" kimi başa düşülə bilər. Gündəlik həyatımızda və işlərimizdə adətən əsas vahidi gün olan Günəş Saatından, yəni Yerin fırlanması səbəbindən Günəşin səma ətrafında 360 dərəcə dönməsi üçün lazım olan vaxtdan istifadə edirik. Günəş vaxtı da günün bölmələri olan daha kiçik vahidlərə malikdir:
 

1/24 Gün = 1 saat

1/60 Saat = 1 Dəqiqə

1/60 Dəqiqə = 1 saniyə
 

Bununla belə, Günəş Günündə Yer öz ətrafında 360° fırlanmadığından Günəş Saatı çətinliklər yaradır. Yer Günəş ətrafında orbitdədir və bir gün ərzində orbiti boyunca təxminən bir dərəcə hərəkət edir (tam orbit üçün 360 dərəcə/365,25 gün = gündə təxminən bir dərəcə). Beləliklə, 24 saat ərzində Günəşə doğru istiqamət təxminən bir dərəcə dəyişir. Buna görə də, Günəşin səma boyu 360° səyahət etmiş kimi görünməsi üçün Yer yalnız 359° fırlanmalıdır. Astronomiyada Yerin “sabit” ulduzlara nisbətən fırlanması üçün nə qədər vaxt lazım olduğu aktualdır, ona görə də bizə Yerin Günəş ətrafında orbitinin mürəkkəbliyini aradan qaldıran və sadəcə olaraq Yerin fırlanmasına nə qədər vaxt sərf etdiyinə diqqət yetirən zaman şkalası lazımdır. ulduzlara nisbətən 360° fırlanır. Bu fırlanma dövrü Sidereal Günü adlanır. Orta hesabla, Yerin 360°-i tamamlamaq üçün əlavə 1 dərəcə fırlanmalı olması səbəbindən Günəş günündən 4 dəqiqə uzundur. Sidereal Gününü 24 saat və 4 dəqiqə ərzində təyin etmək əvəzinə, Günəşdəki analoqları ilə günün eyni hissəsi olan Sidereal Saatları, dəqiqələri və saniyələri təyin edirik. Beləliklə, bir Sidereal saniyə = 1,00278 Günəş Saniyəsi. Sidereal Zaman Yerin tam fırlanmasını 24 Sideral Saata bölür, bu, ulduzların istənilən vaxt harada olduğunu müəyyən etmək üçün faydalıdır.[/fn] relyef gecikir? Bizim adi bioloji insan kontekstimizdə subyektiv vaxt əhəmiyyətli dərəcədə dəyişkən olmadığından, bu normaların uyğunsuzluq prinsipləri vasitəsilə süni intellektə şamil edilsə belə, bu cür sorğu-suallara tanış etik normalar tərəfindən açıq şəkildə cavab verilməməsi təəccüblü deyil. (əvvəlki bölmədə təklif olunanlar kimi).
 

Burada aktual ola biləcək etik iddianın növünü göstərmək üçün biz subyektiv vaxta üstünlük verilməsi prinsipini ən fundamental normativ anlayış kimi formalaşdırırıq (lakin müdafiə etmirik):
 

Zamanın subyektiv sürəti prinsipi
 

Təcrübə müddəti əsas normativ mənaya malik olduğu hallarda təcrübənin subyektiv müddəti nəzərə alınır.

İndiyə qədər biz nisbətən dərin və metafizik baxımdan problemli olmaq mənasında ekzotik olan, eləcə də müasir dünyada aydın nümunələri və ya paralelləri olmayan iki ehtimalı (qeyri-şəffaf zəka və dəyişən zamanın subyektiv dərəcəsi) müzakirə etdik. Mümkün süni ağılların digər xüsusiyyətləri daha səthi mənada ekzotik olardı; məsələn, bəzi problemsiz kəmiyyət ölçülərində bizim tanış olduğumuz ağıl tipindən fərqlənməklə. Lakin bu cür səthi ekzotik xüsusiyyətlər həm də yeni etik problemlər yarada bilər - əxlaq fəlsəfəsinin fundamental səviyyəsində olmasa da, ən azı tətbiqi etika səviyyəsində və ya orta mürəkkəblikdə olan etik prinsiplər üçün.

Süni intellektin vacib ekzotik xüsusiyyətləri çoxalma ilə bağlıdır. İnsan reproduksiyası üçün tətbiq olunan bir sıra empirik şərtlər süni intellektə aid edilmir. Məsələn, insan uşaqları hər iki valideynin genetik materialının rekombinasiyasının məhsuludur; valideynlərin övladlarının xarakterinə təsir göstərmək imkanları məhduddur; insan rüşeyminin doqquz ay ərzində ana bətnində olması lazımdır; insan övladının yetkinləşməsi üçün on beş-iyirmi il lazımdır; insan övladı valideynlərinin qazandığı bacarıq və bilikləri miras almır; İnsanlar çoxalma, sevgi və valideynlər və uşaqlar arasındakı əlaqə ilə əlaqəli mürəkkəb və təkamül yolu ilə emosional uyğunlaşmalar toplusuna malikdir. Bu empirik şərtlərin heç biri ağıllı maşının reproduksiya kontekstinə aid olmamalıdır. Buna görə də inandırıcıdır ki, bizim insanın çoxalmasını tənzimləyən normalar kimi qəbul etdiyimiz bir çox orta səviyyəli əxlaqi prinsiplər süni intellektlə reproduksiya kontekstində yenidən nəzərdən keçirilməlidir.
 

Bəzi əxlaq normalarımızın niyə süni intellektlə reproduksiya kontekstində yenidən nəzərdən keçirilməli olduğunu göstərmək üçün AI sistemlərinin yalnız bir ekzotik xüsusiyyətini nəzərdən keçirmək kifayətdir: onların tez çoxalma qabiliyyəti. Kompüter avadanlığına girişi nəzərə alaraq , AI proqram təminatının surətini çıxarmaq üçün lazım olduğundan daha az vaxt ərzində özünü çox tez təkrarlaya bilər . Bundan əlavə, AI nüsxəsi orijinal ilə eyni olduğu müddətcə, tamamilə yetkin doğulacaq; və sonra surət dərhal öz nüsxələrini yaratmağa başlaya bilər. Aparat məhdudiyyətləri olmadıqda , süni intellekt populyasiyası buna görə də son dərəcə sürətli sürətlə eksponent olaraq böyüyə bilər, vaxt onilliklər və ya əsrlər deyil, dəqiqələr və ya saatlarla ikiqat arta bilər.
 

Çoxalma ilə bağlı hazırkı etik normalarımıza reproduktiv azadlıq prinsipinin bir versiyası daxildir, o mənada ki, hər bir fərd və ya ər-arvad uşaq sahibi olmaq istəyib-istəmədiyini və neçə uşaq sahibi olmaq istədiyini özləri qərar verməlidirlər. Bizdə olan başqa bir norma (ən azı zəngin və orta gəlirli ölkələrdə) valideynlərin bunu edə bilmədiyi və ya imtina etdiyi hallarda uşaqların əsas ehtiyaclarını təmin etmək üçün cəmiyyət müdaxilə etməlidir. Bu iki standartın son dərəcə tez çoxalma qabiliyyəti olan qurumlar kontekstində necə toqquşacağını görmək asandır.
 

Məsələn, yükləyicilərin əhalisini nəzərdən keçirək , onlardan biri mümkün qədər böyük bir qəbilə yaratmaq arzusundadır. Tam reproduktiv azadlığı nəzərə alaraq, bu yükləmə özünü mümkün qədər tez kopyalamağa başlaya bilər; və onun istehsal etdiyi nüsxələr – orijinaldan yeni və ya icarəyə götürülmüş kompüter avadanlığında işləyə bilən və ya orijinalla eyni kompüteri paylaşa bilən nüsxələr də özlərini kopyalamağa başlayacaqlar, çünki onlar yüklənmiş valideynlə eynidirlər və onun istehsal etmək istəyini bölüşürlər. descendants [fn]NT: Orijinal mətndə burada görünən söz filoprogenikdir . Portuqal dilində ekvivalent söz tapmadıq, ona görə də onu müəlliflərin niyyətinə mümkün qədər yaxından tərcümə etməyi seçdik. Məsələn, filoprogenitiv sözünün mənası “çoxlu nəsillər törətmək, bir uşağı və ya ümumiyyətlə uşaqları sevmək, nəsil sevgisi ilə əlaqəli” deməkdir. Təxminən deyə bilərik ki, yükləmələrin populyasiyaları daha çox nəsil yaratmaq istəyəcək.[/fn]. Tezliklə, yükləmə klanının üzvləri elektrik enerjisi haqqını və ya onların həyatda qalması üçün lazım olan hesablama və saxlama emalına görə icarə haqqını ödəyə bilməyəcəklər. Bu məqamda sosial təminat sistemi işə salına bilər ki, onları heç olmasa həyatını təmin etmək üçün əsas ehtiyaclarla təmin etsin. Amma əgər əhali iqtisadiyyatdan daha sürətlə artarsa, resurslar tükənəcək; yükləmələrin öldüyü və ya çoxalma qabiliyyətinin azaldığı nöqtəyə qədər . (İki əlaqəli distopiya ssenarisi üçün bax Bostrom (2004).).
 

Bu ssenari, müasir cəmiyyətlərə uyğun olan bəzi orta səviyyəli etik prinsiplərin necə dəyişdirilməsinin lazım ola biləcəyini göstərir ki, əgər həmin cəmiyyətlərə sürətlə çoxalmaq kimi ekzotik xüsusiyyətə malik olan insanlar daxildir.
 

Buradakı ümumi məqam ondan ibarətdir ki, bizim tanış insan vəziyyətimizdən çox fərqli kontekstlərdə tətbiqi etika haqqında düşünərkən diqqətli olmalıyıq ki, orta səviyyəli etik prinsipləri fundamental normativ həqiqətlərlə qarışdırmamalıyıq. Başqa sözlə desək, biz adi normativ göstərişlərimizin müxtəlif empirik şərtlərin əldə edilməsinə nə dərəcədə dolayı şərtləndiyini və bu göstərişlərin onların ilkin şərtlərinin əldə olunmadığı futuristik hipotetik hallara uyğun tənzimlənməsi zərurətini dərk etməliyik. Ona görə də biz əxlaqi relativizmlə bağlı polemik iddia irəli sürmürük, sadəcə olaraq kontekstin etikanın tətbiqi ilə əlaqəli olması ilə bağlı sağlam məntiqli məqamı vurğulayır və ekzotik xüsusiyyətlərə malik olan ağılların etikasını nəzərdən keçirərkən bu məqamın xüsusilə aktual olduğunu irəli sürürük.
 

Superkəşfiyyat
 

  1. J. Qud (1965) superintellekt haqqında klassik fərziyyəni irəli sürdü: öz dizaynını başa düşmək üçün kifayət qədər intellektli AI özünü yenidən formalaşdıra bilər və ya daha ağıllı bir varis sistemi yarada bilər, sonra daha da ağıllı olmaq üçün özünü yenidən formalaşdıra bilər və s. müsbət rəy döngəsi . Qud bunu “intellekt partlayışı” adlandırdı. Rekursiv ssenarilər süni intellektlə məhdudlaşmır: beyin-kompüter interfeysi vasitəsilə artırılmış intellektə malik insanlar beyin-kompüter interfeysinin növbəti nəslini dizayn etmək üçün zehinlərini yenidən proqramlaşdıra bilərlər. (Əgər sizin IQ-nu artıran bir maşınınız olsaydı, o, kifayət qədər ağıllı olduqdan sonra maşının daha güclü versiyasını yaratmağa çalışmaq sizin ağlınıza gələrdi.)

 

Super intellekt emal sürətini artırmaqla da əldə edilə bilər. Ən sürətli müşahidə edilən neyron atəşi saniyədə 1000 dəfədir; ən sürətli akson lifləri siqnalları saniyədə 150 ​​metr, yəni işıq sürətinin təxminən yarım milyonda birində ötürür (Sandberg 1999). Göründüyü kimi, ölçüsünü azaltmadan və proqram təminatını yenidən yazmadan insan beynindən milyon dəfə daha sürətli hesablayan beyin qurmaq fiziki olaraq mümkün olmalıdır . Əgər insan şüuru bu şəkildə sürətləndirilsəydi, xarici aləmdə hər 31 fiziki saniyə üçün bir subyektiv düşüncə ili yerinə yetirilər və minillik səkkiz saat yarımda uçub gedərdi. Vinge (1993) bu sürətlənmiş ağılları “zəif super intellekt” adlandırır: insan kimi düşünən, lakin daha sürətli olan ağıl.
 

Yudkowsky (2008a) süni intellektin insanlardan daha ağıllı olması qabiliyyətini vizuallaşdırmaq üçün üç metafora ailəsini sadalayır:
 

 

 

 

Özümüzü tarixi metaforalarla məhdudlaşdırsaq belə, aydın olur ki, fövqəlbəşəri zəka sözün əsl mənasında misli görünməmiş etik problemlər yaradır. Bu nöqtədə, paylar artıq fərdi miqyasda deyil (məsələn, ədalətsiz olaraq rədd edilmiş ipoteka müraciətləri, evin yandırılması, pis rəftara məruz qalan şəxs), qlobal və ya kosmik miqyasdadır (məsələn, bəşəriyyət yox olur və dəyər hesab etdiyimiz heç bir şeylə əvəz olunur). Yaxud super zəka faydalı olacaq şəkildə formalaşdırıla bilsə, texnoloji imkanlarından asılı olaraq, insan səviyyəli intellektimiz üçün çətin olduğunu sübut edən bir çox aktual problem üzərində işləyə bilər.
 

Superintellekt Bostrom (2002) tərəfindən müəyyən edildiyi kimi bir neçə “ekzistensial risklərdən” biridir: “mənfi nəticənin Yerdən gələn ağıllı həyatı daimi olaraq məhv edə biləcəyi və ya onun potensialını kəskin şəkildə məhdudlaşdıra biləcəyi” risk. Digər tərəfdən, super zəkanın müsbət nəticəsi Yerdə yaranan ağıllı həyat formalarını qoruyub saxlaya bilər və onların öz potensiallarına çatmasına kömək edə bilər. Əhəmiyyətli odur ki, daha ağıllı ağıllar böyük potensial faydalar və riskləri təmsil edir.
 

Qlobal fəlakətli risklər haqqında düşünmək cəhdləri bir sıra qərəzlərə həssas ola bilər [fn]NT: Koqnitiv qərəz müəyyən vəziyyətlər haqqında düşünərkən və ya təhlil edərkən rasionallıqdan sistematik kənara çıxmaq üçün insan davranışına xas olan meyldir. Bilişsel mexanizmlərimiz (yəni düşüncə, əsaslandırma, nəticə çıxarma mexanizmləri və s.) qərəzlidir, yəni müəyyən istiqamətlərdə qərəzlidir, bizi müəyyən növ səhvlərə yol vermək ehtimalını artırır, məsələn, vaxtı, ehtimalları və s. [/fn] Koqnitiv (Yudkowsky 2008b), o cümlədən Bostrom (2002) tərəfindən təklif olunan "yaxşı hekayə qərəzi":
 

Tutaq ki, “məqbul və real” olan gələcək ssenarilər haqqında intuisiyalarımız televiziyada, filmlərdə gördüklərimiz və romanlarda oxuduqlarımızla formalaşır. (Axı insanların qarşılaşdıqları gələcəklə bağlı diskursların çoxu bədii və digər istirahət kontekstləri şəklindədir). O zaman biz tənqidi düşünərkən intuisiyalarımızdan şübhələnməliyik, yaxşı hekayə yaradan ssenarilərin ehtimalını həddindən artıq qiymətləndirməyə qərəzli olmalıyıq, çünki belə vəziyyətlər daha tanış və daha “real” görünəcək. Bu yaxşı hekayə qərəzi çox güclü ola bilər. Siz axırıncı dəfə nə vaxt bəşəriyyət haqqında bir filmə baxmısınız ki, orada insanlar birdən-birə yox oldular (xəbərdarlıq etmədən və başqa bir sivilizasiya ilə əvəz olunmadan)? Bu ssenari insan qəhrəmanların canavarların və ya robot döyüşçülərin işğalını uğurla dəf etdiyi ssenaridən daha çox ehtimal olsa da, izləmək çox da əyləncəli olmaz.
 

Əslində arzuolunan nəticələr pis filmlər yaradır: Münaqişənin olmaması hekayənin olmaması deməkdir. Asimovun Robototexnikanın Üç Qanunu (Asimov 1942) tez-tez süni intellekt üçün etik inkişaf modeli kimi xatırlansa da, Üç Qanun daha çox Asimovun “pozitronik beyinləri” üçün süjet qurğusuna bənzəyir. Əgər Asimov üç qanunu yaxşı iş kimi təqdim etsəydi, heç bir hekayəsi olmazdı.
 

“AI” sistemlərini sabit xüsusiyyətlərə malik bir növ hesab etmək və “onlar yaxşı və ya pis olacaq?” sualını vermək səhv olardı. “Süni intellekt” termini, yəqin ki, insan şüurunun məkanından daha böyük olan geniş dizayn məkanına aiddir (çünki bütün insanlar ümumi beyin arxitekturasını paylaşırlar). “Süni intellekt sistemləri yaxşıdır, yoxsa pisdir?” sualını vermək “yaxşı hekayə qərəzinin” bir forması ola bilər, sanki bir film süjeti üçün əsas götürməyə çalışırsınız. Cavab belə olmalıdır: "Sən tam olaraq hansı AI dizaynından danışırsan?"
 

Süni intellektin ilkin proqramlaşdırılması üzərində nəzarət onun dünyaya sonrakı təsiri üzərində təsirə çevrilə bilərmi? Kurzweil (2005) bildirir ki, “intellektin idarə edilməsi mahiyyət etibarilə qeyri-mümkündür” və insanın ehtiyat tədbirləri görməyə cəhdlərinə baxmayaraq, “tərifinə görə...ağıllı varlıqlar bu maneələri asanlıqla aşmaq qabiliyyətinə malikdirlər”. Fərz edək ki, süni intellekt təkcə ağıllı deyil, həm də öz intellektini təkmilləşdirmək prosesinin bir hissəsi kimi, öz mənbə koduna pulsuz çıxışı var: o, özünü yenidən yaza və istədiyi hər şeyə çevrilə bilər. Ancaq bu, süni intellektin özünü düşməncəsinə yenidən yazmaq istəməsi demək deyil .
 

İnsanları öldürməmək arzusunda olan Qandiyə nəzər salaq. Qandi şüurlu şəkildə insanları öldürmək istəyinə səbəb olan həb qəbul etmir, çünki Qandi bilir ki, insanları öldürmək istəsə, yəqin ki, insanları öldürəcək və Qandinin indiki versiyası öldürmək istəmir. Ümumiyyətlə, özünü dəyişdirən zehinlərin əksəriyyətinin təbii olaraq sabit faydalı funksiyalara malik olacağı ehtimal edilir ki, bu da ağıl dizaynının ilkin seçiminin uzunmüddətli təsirlərə malik ola biləcəyini göstərir (Omohundro 2008).
 

Süni intellekt elminin inkişafının bu nöqtəsində “yaxşı” AI sistemləri üçün dizayn tapmaq vəzifəsini müasir tədqiqat istiqamətinə çevirə biləcəyimiz hər hansı bir yol varmı ? Fərziyyələr söyləmək tez görünə bilər, lakin bəzi süni intellekt paradiqmalarının bir neçə özünü təkmilləşdirmədən sonra belə hədəfləri proqnozlaşdırıla bilən ağıllı özünü dəyişdirən agentlərin yaradılmasına imkan verməsi üçün digərlərindən daha çox ehtimal olunduğundan şübhələnirlər. . Məsələn, ehtimal nəzəriyyəsi və gözlənilən faydalılığın maksimumlaşdırılması kimi əlaqəli riyazi sistemlərdən ilhamlanan AI-nin Bayes bölməsi, təkamül proqramlaşdırma və genetik alqoritmlərdən daha çox proqnozlaşdırıla bilən özünü modifikasiya probleminə daha uyğun görünür. Bu, mübahisəli bir bəyanatdır, lakin bu, super intellektin problemi haqqında düşünsək, bu, həqiqətən, indiki AI tədqiqatları üçün istiqamətləndirici məsləhətə çevrilə biləcəyini göstərir.
 

Bununla belə, süni intellektin özünü dəyişdirmə və özünü təkmilləşdirmədə davamlı olması məqsədini müəyyən edə biləcəyimizi fərz etsək belə, bu, yalnız super intellektin yaradılmasının əsas etik problemlərinə toxunmağa başlayır. Yer üzündə mövcud olan ilk ümumi intellekt olan insanlar zəkadan dünyanın heykəllərini əsaslı şəkildə yenidən formalaşdırmaq üçün istifadə etdilər - dağları oymaq, çayları əhliləşdirmək, göydələnlər tikmək, səhralarda əkinçilik etmək, planetdə gözlənilməz iqlim dəyişiklikləri yaratmaq. Daha güclü kəşfiyyat müvafiq olaraq daha böyük nəticələrə səbəb ola bilər.
 

Yenidən super intellektin tarixi metaforasını nəzərdən keçirək - keçmiş və indiki sivilizasiyalar arasındakı fərqlərə bənzər fərqlər. İndiki sivilizasiyamız qədim Yunanıstandan təkcə təkmil elm və artan texnoloji imkanlarla ayrılmır. Etik baxışlarda fərqlilik var: qədim yunanlar köləliyin məqbul olduğunu düşünürdülər, biz başqa cür düşünürük. Hətta 19-20-ci əsrlər arasında ciddi etik fikir ayrılıqları var idi - qadınların səsvermə hüququ olmalıdırmı? Qara insanlar səs verə bilərmi? Çox güman ki, bu gün insanlar gələcək sivilizasiyalar tərəfindən təkcə yoxsulluq və bərabərsizlik kimi qəbul edilmiş etik problemləri həll edə bilməməyimizə görə deyil, həm də bəzi etik problemləri tanıya bilməməyimizə görə etik cəhətdən mükəmməl görünməyəcəklər. Ola bilsin ki, bir gün uşaqların qeyri-ixtiyari olaraq məktəbə məruz qalması hərəkəti uşaq istismarı kimi qiymətləndiriləcək və ya bəlkə də uşaqların 18 yaşında məktəbi tərk etməsinə icazə verilməsi uşaq istismarı kimi qiymətləndiriləcək. Biz bilmirik.
 

Əsrlər boyu bəşər sivilizasiyalarında etika tarixinə nəzər salsaq görərik ki, bəşər sivilizasiyalarının istiqamət dəyişikliyi nümayiş etdirdiyi etik ölçülərdə sabit qalan ağıl yaratmaq çox böyük faciəyə çevrilə bilər . Sirakuzalı Arximed Qədim Yunan əxlaq kodeksinin sabit versiyası ilə uzunmüddətli süni intellekt yarada bilsəydi nə olardı? Ancaq bu cür etik durğunluqdan qaçmaq açıq şəkildə mürəkkəbdir: məsələn, zehni təsadüfi olaraq qeyri-sabit etmək kifayət deyil. Qədim yunanlar, öz qüsurlarını dərk etsələr də, zar atmaqla belə, daha yaxşısını edə bilməzdilər. Bəzən etikada yaxşı bir yeni fikir sürprizlə gəlir; lakin təsadüfi yaradılan ideyaların əksəriyyəti bizə dəlilik və ya anlaşılmaz boşboğazlıq kimi görünən etik dəyişikliklərə səbəb olur.
 

Bu, bizə etik maşınların bəlkə də son problemini təqdim edir: Siz icra edildikdə sizdən daha etik hala gələn AI-ni necə qurursunuz? Bu, öz filosoflarımızdan super etika yaratmağı xahiş etmək kimi deyil, daha çox Deep Blue ən yaxşı insan şahmatçılarının yaxşı hərəkətlər proqramlaşdırması ilə quruldu. Ancaq sualı effektiv şəkildə təsvir etməyi bacarmalıyıq, əgər cavab deyilsə - zar atmaq yaxşı şahmat hərəkətləri və ya yaxşı etika yaratmayacaq. Və ya bəlkə də problem haqqında daha məhsuldar bir düşüncə tərzi: Arximedin super intellekt yaratmaq üçün hansı strategiyaya əməl etməsini istərdiniz ki, əgər ona konkret olaraq nəyi səhv etdiyimi deyə bilməsəniz, ümumi nəticə hələ də məqbul olsun? Gələcəklə bağlı vəziyyətimiz belədir.
 

Vəziyyətimizi Arximedin analoqu kimi nəzərə alaraq ortaya çıxan məsləhətin güclü hissəsi ondan ibarətdir ki, sivilizasiyamızın etik hesab etdiyi şeyin “super” versiyasını icad etməyə çalışmamalıyıq; Bu, Arximedin izləməsini istədiyimiz strategiya deyil. Bəlkə də, daha çox düşünməli olduğumuz sual, Arximed tərəfindən proqramlaşdırılmış süni intellektin – Arximeddən daha böyük əxlaqi təcrübəsi olmayan – sadə əxlaqi qeyri-sabitlikdən fərqli olaraq, öz etik sivilizasiyamızı (ən azı qismən) mənəvi tərəqqi kimi necə tanıya biləcəyidir. Bu, bizdən şahmatın quruluşunu anladığımız şəkildə etik sualların strukturunu başa düşməyə başlamağımızı tələb edərdi.
 

Qabaqcıl AI-ni inkişaf etdirməkdə ciddiyiksə, bu bizim üzləşməli olduğumuz problemdir. Maşınlar insanlardan daha güclü, daha sürətli, daha etibarlı və ya daha ağıllı olacaq vəziyyətə gətiriləcəksə, etik maşınların nizam-intizamı üstün insan zərifliyi (yalnız insan ekvivalentləri deyil) axtarmağa borcludur.[fn]Müəlliflər Tədqiqat yardımına görə Rebekka Rouça və əlyazmamızın əvvəlki variantı ilə bağlı ətraflı şərhlərə görə bu cildin redaktorlarına minnətdarıq.[/fn]
 

Nəticə
 

Bugünkü süni intellekt bizə avtomobil və ya elektrik stansiyalarının dizaynında olmayan bəzi etik suallar təqdim etsə də , süni intellekt alqoritmlərinin daha çox insan təfəkkürünə yanaşması xoşagəlməz fəsadları göstərir. Sosial rollar AI alqoritmləri vasitəsilə yerinə yetirilə bilər ki, bu da şəffaflıq və proqnozlaşdırıla bilənlik kimi yeni dizayn tələblərini nəzərdə tutur. Kifayət qədər IAG alqoritmləri artıq proqnozlaşdırıla bilən kontekstlərdə fəaliyyət göstərə bilmir və yeni növ mühəndislik və təhlükəsizlik təminatı və süni etika mülahizələrini tələb edir. Kifayət qədər inkişaf etmiş psixi vəziyyətlərə və ya düzgün növ dövlətlərə malik AI sistemləri mənəvi statusa sahib olacaq və bəziləri insanlar kimi qəbul edilə biləcək - baxmayaraq ki, indi mövcud olan insanlardan çox fərqli insanlar, bəlkə də fərqli qaydalarla. Və nəhayət, fövqəlbəşər zəkaya və fövqəlbəşər qabiliyyətlərə malik süni intellekt perspektivi bizə super etik davranış yaradan alqoritmi göstərmək kimi fövqəladə problem təqdim edir. Bu çağırışlar uzaqgörən görünə bilər, lakin onlarla qarşılaşacağımız proqnozlaşdırıla bilər və onlar cari tədqiqatın istiqaməti üçün təkliflərsiz deyillər.
 

Müəlliflərin tərcümeyi-halı
 

Nik Bostrom Oksford Universitetinin Fəlsəfə fakültəsinin professoru və Martin Oksford Məktəbində İnsanlığın Gələcəyi İnstitutunun direktorudur . O, Anthropic Bias ( Routledge , 2002), Global Catastrophic Risks (ed. OUP, 2008) və Enhancing Humans (ed., OUP, 2009) daxil olmaqla 200-ə yaxın nəşrin müəllifidir . Onun tədqiqatları bəşəriyyət üçün çox aktual olan bir sıra məsələləri əhatə edir. Hazırda o, süni intellektin gələcəyi və onun strateji təsirləri haqqında kitab üzərində işləyir.
 

Eliezer Yudkowsky Süni İntellekt üzrə Singularity İnstitutunun tədqiqatçısıdır və burada özünü təkmilləşdirən süni intellektdə proqnozlaşdırıla bilən memarlıq problemləri üzərində tam zamanlı işləyir. Onun hazırkı işi özünü modifikasiyanın ardıcıl formasını təsvir etmək üçün klassik qərar nəzəriyyəsinin dəyişdirilməsinə yönəlmişdir. O, həm də insan rasionallığı və koqnitiv qərəzlilik məsələlərinə dair məşhur yazıları ilə tanınır.
 

Oxumalar
 

Bostrom, N. 2004. “The Future of Human Evolutian”, Ölüm və Anti-Ölüm: Kantdan İki Yüz İl Sonra, Turinqdən Əlli İl Sonra , Ed. Charles Tandy (Palo Alto, Kaliforniya: Ria University Press ). – Bu iş distopik istiqamətlərdə inkişaf edən yükləmələrin populyasiyasına səbəb ola biləcək bəzi təkamül dinamikasını araşdırır .
Yudkowsky, E. 2008a. 'Süni intellekt Qlobal Riskdə Müsbət və Mənfi Faktor kimi' , Bostrom və Cirkovic (red.), səh. 308-345. – Superintellektual maşınların öz-özünə rekursiyasını təkmilləşdirmək imkanının təqdim etdiyi risklər və problemlərə giriş.
Wendell, W. 2008. "Əxlaqi Maşınlar: Robotları Səhvdən Doğrudan Öyrənmək" (Oxford University Press, 2008). - Son hadisələrin qlobal sorğusu.
 

İstinadlar
 

ASIMOV, I. ​​1942. 'Runaround', Astounding Science Fiction , Mart 1942.
 

BEAUCHAMP, T. və Chilress, J. Biotibbi Etika Prinsipləri . Oxford: Oxford University Press.
 

BOSTROM, N. 2002. 'Ekzistensial Risklər: İnsanın yox olması ssenarilərinin təhlili', Təkamül və Texnologiya jurnalı 9
http://www.nickbostrom.com/existential/risks.html ).
 

BOSTROM, N. 2003. 'Astronomik Tullantılar: Gecikmiş Texnoloji İnkişafın Fürsət Xərcləri', Utilitas 15: 308-314.
 

BOSTROM, N. 2004. 'İnsan təkamülünün gələcəyi', Ölüm və Anti-Ölüm: Kantdan İki Yüz İl Sonra, Turinqdən Əlli İl Sonra , Ed. Charles Tandy (Palo Alto, Kaliforniya: Ria University Press)
http://www.nickbostrom.com/fut/evolution.pdf )
 

BOSTROM, N. və CIRKOVIC, M. (red.) 2007. Qlobal Fəlakət Riskləri . Oxford: Oxford University Press.
 

CHALMERS, DJ, 1996, Şüurlu Ağıl: Fundamental Nəzəriyyə Axtarışda . Nyu York və Oksford: Oksford Universiteti Nəşriyyatı
 

HIRSCHFELD, LA və GELMAN, SA (red.) 1994. Ağılın Xəritəçəkilməsi: İdrak və Mədəniyyətdə Sahə Xüsusiyyətləri , Kembric: Cambridge University Press.
 

GOERTZEL, B. və PENNACHIN, C. (red.) 2006. Süni Ümumi İntellekt . New York, NY: Springer Nəşriyyatı.
 

GOOD, IJ 1965. Alt, FL və Rubinoff, M. (red.) Advances in Computers , 6, New York: Academic Press. Səh. 31-88.
 

HASTIE, T., TIBSHIRANI, R. and FRIEDMAN, J. 2001 . New York, NY: Springer Elm.
 

HENLEY, K. 1993. 'Abstrakt Prinsiplər, Orta Səviyyə Prinsipləri və Qanunun Aliliyi', Hüquq və Fəlsəfə 12: 121-32.
 

HOFSTADTER, D. 2006. Stenfordda, 2006-cı il Singularlıq Sammitində təqdim edilən "Təklik Ssenarisi haqqında Rasional Düşünməyə çalışmaq" .
 

HOWARD, Philip K. 1994. Sağlam Düşüncənin Ölümü: Qanun Amerikanı necə boğur . New York, NY: Warner Books.
 

KAMM, F. 2007. Mürəkkəb etika: hüquqlar, öhdəliklər və icazə verilən zərər . Oxford: Oxford University Press.
 

KURZWEIL, R. 2005. Təklik Yaxındır: İnsanlar Biologiyanı aşdıqda . New York, NY: Viking.
 

McDERMOTT, D. 1976. 'Süni intellekt təbii axmaqlığa cavab verir', ACM SIGART Newsletter 57:4-9.
 

OMOHUNDRO, S. 2008. 'Əsas AI Sürücüləri', AGI-08 Seminarının Materialları . Amsterdam: IOS Press. Səh. 483-492.
 

SANDBERG, A. 1999. 'Məlumat emal edən superobyektlərin fizikası: Yupiter beyinləri arasında gündəlik həyat', Təkamül və Texnologiya jurnalı , 5.
 

VINGE, V. 1993. 'Gələcək Texnoloji Təklik', VISION-21 Simpoziumunda təqdim olunub , Mart, 1993.
 

WARREN, ME 2000. Mənəvi Vəziyyət: İnsanlara və Digər Canlılara qarşı öhdəliklər . Oxford: Oxford University Press.
 

YUDKOWSKY, E. 2006. 2006-cı ildə Bethesda, MD-də keçirilən AGI Seminarında təqdim olunan "AI dəqiq bir sənət kimi" .
 

YUDKOWSKY, E. 2008a. “Süni intellekt qlobal riskdə müsbət və mənfi faktor kimi”, Bostrom və Cirkoviçdə (red.), səh. 308-345.
 

YUDKOWSKY, E. 2008b. “Qlobal risklərin mühakiməsinə potensial təsir göstərən koqnitiv qərəzlər”, Bostrom və Cirkovic (red.), səh. 91-119.