دوستانه مصنوعي ځيرکتيا

دوستانه مصنوعي ځيرکتيا (انګلیسي: Friendly artificial intelligence) یا FAI، دا اصطلاح د فرضیې یوې ټولګې ته اشاره کوي چې د مصنوعي عمومي ځيرکتيا ( AGI ) یو ډول په ګوته کوي کوم چې ممکن په انسانیت باندې مثبت (یا نرم) اغیزه ولري، یا لږترلږه د هغې سره مطابقت ولري. د انسان د ګټو سره د انسان د نسل په ښه والي کې هم مرسته کوي. FAI د مصنوعي ځيرکتيا د اخلاقو برخه ګڼل کیږي او په کلکه د ماشین اخالقي سره تړاو لري. پداسې حال کې چې د AI اخالقي مطالعات د هغه چلند سره تړاو لري چې د AI اجنټ باید پکې ښکیل وي، د AI دوستانه څیړنه په عملي اړخ تمرکز کوي او معاینه کوي چې دا چلند څنګه په عمل کې رامینځته کیږي او ډاډ ترلاسه کوي چې دا په مناسب ډول محدود دی.

د اصطلاح اصل او د هغې کارول

سمول

دا اصطلاح د ایلیزر یوډکوسکي لخوا جوړه شوې وه، [۱] چې د دې مفکورې د ودې او د عالي مصنوعي مصنوعي اجنټانو په اړه بحث کولو لپاره خورا مشهور دی چې په باوري توګه انساني ارزښتونه پلي کوي. [۲] [۳] د مصنوعي ځيرکتيا کتاب، " مصنوعي ځيرکتيا: یو عصري چلند " د کمپیوټر ساینس پوهانو پیټر نورینګ او <b id="mwHQ">سټوارټ رسل</b> لخوا د دوستانه مصنوعي ځيرکتيا مفکوره تشریح کوي: [۳] " یوډکووسکي د دوستانه مصنوعي ځيرکتيا په اړه نور توضیحات وړاندې کوي، ټینګار کوي چې "دوستانه" (یا دا هیله چې انسانانو ته زیان ونه رسوي) باید په ماشین کې له پیل څخه ډیزاین شي، مګر ډیزاینر باید پوه شي چې د هغه ډیزاین ممکن نیمګړتیاوې ولري او دا چې ماشین به د وخت په تیریدو سره وده وکړي او ډیر څه زده کړي. له همدې امله، ننګونه د میکانیزم په ډیزاین کې پروت دی - د چک او بیلانس سیسټم لاندې د مصنوعي ځيرکتيا سیسټمونو پراختیا لپاره د میکانیزم تعریف کول، سربیره پردې دا سیسټمونه د هغو فعالیتونو سره چې د بدلونونو په وړاندې د "دوستانه" پاتې کیدو وړ دي. »

د " دوستانه " کلمه دلته د تخنیکي اصطلاح په توګه کارول کیږي، کوم چې هغه فکتورونه غوره کوي چې خوندي او د انسانیت لپاره ګټور وي او د کلمې په لغت کې د "دوست" معنی نلري. دا اصطلاح معمولا د مصنوعي هوښیارتیا اجنټانو د ځان اصلاح کولو بحثونو په جریان کې ویل کیږي ، پدې انګیرنه چې دا ټیکنالوژي به په انساني ټولنه خورا لوی او ګړندي اغیزه ولري او کنټرول به یې ستونزمن وي. [۴]

د غیر دوستانه مصنوعي ځيرکتيا خطرونه

سمول

د مصنوعي ځيرکتيا په اړه اندیښنه پخوانۍ ریښې لري. Kevin LaGrandeur څرګنده کړه چې د مصنوعي ځيرکتيا اړوند خطرونه په لرغونو ادبیاتو کې لیدل کیدی شي چې د مصنوعي ځيرکتيا ماشینونو پورې اړه لري چې انسانانو ته خدمت کوي ، لکه "ګولم " چې په یهودي افسانه کې د انسانانو په څیر یو مصنوعي شی دی، د خټو څخه جوړ شوی، نه توانیدلی . وینا او هیڅ وړیا اراده نلري، هغه د خپل جوړونکي خدمت یا دفاع لپاره رامینځته شوی. یا لکه د سلویسټر II او راجر بیکن لومړني روبوټونه. په دې ټولو کیسو کې، د مخلوقاتو خورا پیاوړی مصنوعي هوښیارتیا د انسانانو لپاره د غلامانو یا نوکرانو په توګه د دوی د حیثیت سره ټکر کوي (چې په طبیعي توګه د انسانانو څخه ټیټ ګڼل کیږي)، ویجاړونکي پایلې لري.

په 1942 کې، دا کیسې او موضوعات د لیکوال اسحاق عاصموف د دې لامل شول چې د روبوټکس درې قوانین رامینځته کړي، هغه اصول چې د هغه په لیکنو کې په ټولو روبوټونو کې ځای پرځای شوي، موخه یې دا وه چې د دوی ډیزاینرانو ته د دوی د بدلولو یا زیان رسولو مخه ونیسي. [۵]

په عصري وختونو کې، د سوپر انټیلیجینټ AI اجنټانو ډیزاین کولو امکاناتو په ډیریدو سره، فیلسوف نیک بوسټروم وايي: د سوپر انټیلیجینټ مصنوعي سیسټمونه چې د انساني ارزښتونو سره سم اهدافو سره ندي ډیزاین شوي، په حقیقت کې، بشریت ته خطر دی پرته لدې چې اقدامات ترسره شي. د انسانیت خوندیتوب ډاډمن کړي.

په 2008 کې، یوډکوسکي د مصنوعي ځيرکتيا څخه د موجود ګواښ د کمولو لپاره د " دوستانه AI " رامینځته کولو غوښتنه وکړه: "د AI اجنټ نه تاسو څخه کرکه کوي او نه تاسو سره مینه لري، مګر تاسو د اتومونو څخه جوړ شوي یاست چې هغه کولی شي د بل څه لپاره وکاروي. » [۶]

سټیو اوموهندرو وايي چې هر ډول کافي پرمختللي مصنوعي ځيرکتيا سیسټم به یو شمیر لومړني چلونه نندارې ته وړاندې کړي لکه د سرچینو استملاک، د ځان ساتنه، او دوامداره ځان ښه کول. پرته لدې چې دا ډرایور په مستقیم ډول په ګوته شي ، کوم چې د کوم هدف لخوا پرمخ وړل شوي سیسټم طبیعي پایله ده ، پرته له پامه غورځول شوي ، د AI اجنټ به ناغوښتل شوي چلندونه نندارې ته وړاندې کړي. [۷]

الکساندر ویسنر - ګراس وايي چې د مصنوعي ځيرکتيا اجنټان چې د فعالیت د آزادۍ پراخولو لپاره ګړندي کوي "دوستانه" ګڼل کیدی شي که چیرې د دوی د پلان کولو افق له یو ټاکلي حد څخه تیر شي، او "غیر دوستانه" که چیرې د دوی د پلان کولو افق له دې حد څخه تیر نشي. [۸] [۹]

[۱۰]لوک میوهل هاوزر ، په کالیفورنیا کې د مصنوعي ځيرکتيا څیړنې انسټیټیوټ لپاره لیکل، وړاندیز کوي چې د ماشین اخالقي مطالعات هغه څه غوره کړي چې بروس شنیر د " امنیت ذهنیت " بولي: د دې پرځای چې فکر وکړي چې سیسټم څنګه کار کوي، تصور وکړئ چې دا څنګه ناکام کیدی شي. د مثال په توګه ، د AI سیسټم چې یوازې دقیق وړاندوینې کوي او د متن انٹرفیس له لارې اړیکه کولی شي په غیر ارادي ډول د زیان لامل شي. [۱۱]

نورې لارې چارې

سمول

سټیو اوموهندرو د مصنوعي ځيرکتيا ماشینونو خوندي پراختیا لپاره مختلف چلند وړاندیز کړی ، چیرې چې د ثابت خوندي مصنوعي ځيرکتيا لومړی نسل په دوهم نسل کې رامینځته کیږي چې تعقیب کیږي. [۱۲]

سیت بام استدلال کوي چې د خوندي او ټولنیز پلوه ګټور AI سیسټم رامینځته کولو دنده د AI سیسټمونو ټولنیز اروا پوهنې کې څیړونکو ته راځي ، او پدې توګه د بهرني اقداماتو لخوا محدود کیدی شي او د داخلي اقداماتو لخوا هڅول کیدی شي. داخلي هڅونې هغه وخت پیاوړې کیدی شي کله چې د AI پورې اړوند بهرني پیغامونه او سپارښتنې پخپله د AI سیسټم پراختیا کونکو سره مطابقت ولري. بوم وايي: "د ټولنې دوستانه AI په اړه اوسني وړاندیزونه ډیری وختونه په ښه توګه ندي جوړ شوي."

بوم د "همکارۍ اړیکو او د AI څیړونکو مثبت چوکاټ" هڅولو غوښتنه کوي او د "ګټور سیسټمونو په لټه کې نه" په توګه د دوی تشریح کولو پروړاندې احتیاط کوي. [۱۳]

نيوکې

سمول

ځینې منتقدین په دې باور دي چې د انسان د AIs او د سپوږمکۍ مصنوعي سیسټمونو ته د رسیدو امکان خورا لږ دی، او په دې توګه د دوستانه سیسټمونو ته د رسیدو امکان هم لږ دی. ایلن وینفیلډ د انسان په کچه د مصنوعي ځيرکتيا سیسټمونو لاسته راوړلو ستونزې د رڼا د سرعت په پرتله د ګړندۍ سفر کولو لپاره د لارې موندلو ستونزې سره پرتله کوي ، او تشریح کوي چې پداسې حال کې چې دا موږ ته "محتاط او چمتو کولو ته اړتیا لري،" موږ اړتیا نه لرو. زموږ په پام کې نیولو سره لیونی شئ. د مصنوعي ځيرکتيا د خطرونو په اړه. [۱۴]

له بلې خوا، بویلز او جوکین استدلال کوي چې د دوستانه AI سیسټمونو رامینځته کولو لپاره د مول هاوزر او نیک بوسټروم وړاندیزونه ناخوښه دي. دوی په دې نظر باور لري چې هوښیار ماشینونه به په اتوماتيک ډول د هغه نظرونو د لیږد لپاره پروګرام شي چې د انساني ارزښتونو او اخلاقو سره مخالف وي.

ځینې فیلسوفان په دې باور دي چې هر ډول "منطقي" AI اجنټ به په طبیعي توګه ګټور وي. له دې نظره، د خوندي او دوستانه AI تولید لپاره ساتل شوي محافظتونه ممکن غیر ضروري یا حتی زیانمن وي.

نور څیړونکي په حقیقت کې د دوستانه AI سیسټمونو رامینځته کولو حقیقت په اړه پوښتنې راپورته کوي. اډم کیپر او آری این شولمن ، د ټیکنالوژۍ مجلې نوي اتلانتیس مدیران وايي چې د مصنوعي ځيرکتيا سیسټمونو کې د دوستانه چلند تضمین کول ناممکن دي، ځکه چې د اخالقیاتو پورې اړوند د هر څه پیچلتیا پورې اړوند ستونزې به د برقیانو په مخ کې ورک نشي. د ذهن پروګرامونه به د کمپیوټري ځواک د زیاتوالي سره وده، بدلون، یا زیاتوالی ونلري. [۱۵]

سرچينې

سمول
  1. Lua error in Module:Citation/CS1/Utilities at line 38: bad argument #1 to 'ipairs' (table expected, got nil).
  2. Lua error in Module:Citation/CS1/Utilities at line 38: bad argument #1 to 'ipairs' (table expected, got nil).
  3. ۳٫۰ ۳٫۱ Lua error in Module:Citation/CS1/Utilities at line 38: bad argument #1 to 'ipairs' (table expected, got nil).
  4. Lua error in Module:Citation/CS1/Utilities at line 38: bad argument #1 to 'ipairs' (table expected, got nil).
  5. Lua error in Module:Citation/CS1/Utilities at line 38: bad argument #1 to 'ipairs' (table expected, got nil).
  6. Lua error in Module:Citation/CS1/Utilities at line 38: bad argument #1 to 'ipairs' (table expected, got nil).
  7. Lua error in Module:Citation/CS1/Utilities at line 38: bad argument #1 to 'ipairs' (table expected, got nil).
  8. Lua error in Module:Citation/CS1/Utilities at line 38: bad argument #1 to 'ipairs' (table expected, got nil).
  9. کينډۍ:استشهاد بدورية محكمة
  10. کينډۍ:استشهاد بدورية محكمة
  11. Lua error in Module:Citation/CS1/Utilities at line 38: bad argument #1 to 'ipairs' (table expected, got nil).
  12. Lua error in Module:Citation/CS1/Utilities at line 38: bad argument #1 to 'ipairs' (table expected, got nil).
  13. کينډۍ:استشهاد بدورية محكمة
  14. Lua error in Module:Citation/CS1/Utilities at line 38: bad argument #1 to 'ipairs' (table expected, got nil).
  15. Lua error in Module:Citation/CS1/Utilities at line 38: bad argument #1 to 'ipairs' (table expected, got nil).