د مصنوعي ځيرکتيا ژمی

د AI په تاریخ کې، د AI ژمی د مصنوعي ځيرکتيا د ګټو او تمويل د کمېدو دوره ده. [۱] دا اصطلاح د هستوي ژمي مفکورې ته ورته ده . [۲] دې دورې د اعلاناتو ډېری دورې تجربه کړې دي؛ د مایوسۍ او نیوکو یوه دوره، بیا د بودیجې کمېدو دوره، او بیا د کلونو یا لسیزو وروسته بیا پيلېدو دورې لیدل شوې دي.

دا اصطلاح په لومړي ځل په 1984 کې د AAAI په کلنۍ غونډه کې د عمومي بحث د موضوع په توګه راښکاره شوه (چې هغه وخت د امريکا مصنوعي ځيرکتيا ټولنه بلل کېده). دا یو سلسله غبرګونونه دي چې د AI ټولنه کې د شک سره پیل کیږي ، په مطبوعاتو کې د شک په تعقیب ، وروسته د تمویل سخت کمښت ، او بیا د جدي څېړنې پای. په غونډه کې، راجر شانک او ماروین مینسکي - د AI دوه مشهور څېړونکي چې د 1970لسيزې "ژمي" څخه ژوندي پاتې شوي - د سوداګرۍ [۳] ته خبرداری ورکړ چې د مصنوعي ځيرکتيا لېوالتیا په 1980 لسيزې کې له لاس څخه وتلې وه، او دا به يقيناً مايوسه کوونکې اوسي، درې کاله وروسته، د ميلیارد ډالرو AI صنعت سقوط پیل کړ. [۳]

دا تبليغاتي هيجان په ډېرو راڅرګندېدونکي ټیکنالوژیو کې لیدل شوی ، لکه د ریل پټلۍ کریز یا د حباب دات کام . د AI ژمی د ورته تبليغاتو پایله وه، د ډېرو ژمنو پراختیا کوونکو لخوا سونګ شوی، د پای کاروونکو څخه په غیر طبیعي توګه لوړې تمې، او په رسنیو کې د پراخو هیلو د مصنوعي ځيرکتيا د شهرت له لوړېدو او زوال سره سره، دې ټېکنالوجۍ د نویو ټیکنالوژیو پراختیا ته دوام ورکړی او دا مزل يې په برياليتوب سره ترسره کړی دی. د AI څېړونکي روډني بروکس په 2002 کې شکایت وکړ چې "دا احمقانه افسانه شتون لري چې AI ناکام شوی، مګر AI د ورځې په هره ثانیه کې ستاسو شاوخوا وي." [۴] په 2005 کېرlی کروزويل ومنله: "ډېری کتونکي لاهم فکر کوي چې د AI ژمی د کیسې پای دی، او دا چې له هغه وخت راهیسې په AI کې هیڅ شی نه دی شوی." په هرصورت، نن ورځ، د AI زرګونه غوښتنلیکونه د هر صنعت زیربنا کې ژور ځای لري." [۴]

په عموم کې، د مصنوعي استخباراتو لپاره لیوالتیا او خوشبیني د 1990 لسیزې په لومړیو کې د ټیټې کچې راهیسې لوړه شوې. د 2012 په شاوخوا کې پیل شوي، د څیړنې او کارپوریټ ټولنو څخه مصنوعي استخباراتو (او په ځانګړې توګه د ماشین زده کړې فرعي ساحه) کې دلچسپي د تمویل او پانګونې په برخه کې د پام وړ زیاتوالی المل شو.

کتنه

سمول

دوه اصلي ژمي د 1974 او 1980 او 1987 او 1993 ترمنځ پیښ شوي [۵] . لاندې د کوچني ژمي څو قسطونه دي:

  • 1966: د ماشین ژباړې ناکامي
  • 1970: د ارتباط پریښودل
  • د تمایلاتو دوره:
    • 1975-1971: د کارنیګي میلون پوهنتون کې د وینا پوهاوي د څیړنې برنامې سره د DARPA مایوسي
    • 1973: د Lighthill راپور په ځواب کې په انګلستان کې د مصنوعي استخباراتو په څیړنه کې لوی کمښت
    • 1973-1974: په عمومي توګه د اکادمیک AI څیړنې کې د DARPA کمښت
  • 1987: د LISP ماشینونو بازار سقوط
  • 1988: د ستراتیژیک کمپیوټري نوښت لخوا د مصنوعي استخباراتو نوي لګښتونه لغوه کول
  • 1993: د نوي متخصص سیسټمونو د ځای پرځای کولو او ساتنې په وړاندې مقاومت
  • 1990s: د پنځم نسل کمپیوټر پروژې لومړني اهداف پای ته ورسید

لومړنۍ برخې

سمول

د ماشین ژباړه او د ALPAC راپور په 1966 کې

سمول

د سړې جګړې په جریان کې، د متحده ایالاتو حکومت په ځانګړې توګه د روسیې د ساینسي اسنادو او راپورونو اتوماتیک او سمدستي ژباړې ته لیوالتیا درلوده. د 1954 راهیسې، حکومت په کلکه د ماشین ژباړې هڅو ملاتړ کړی. په لومړي سر کې، څیړونکي خوشبین وو. د ګرامر په اړه د نوم چومسکي نوي کار د ژباړې پروسه ساده کړه، او د راتلونکو "پرمختګونو" ډیری وړاندوینې شتون درلود.

په 1973 کې د متحده ایالاتو د مرستیال ولسمشر جیرالډ فورډ لپاره د ارتباطي ګرامر پر بنسټ د کمپیوټر ژباړې ماډل په اړه لنډیز.

په هرصورت، څیړونکو د کلمې معنی بې برخې کولو ژوره ستونزه کمه کړې. د یوې جملې د ژباړلو لپاره، ماشین ته اړتیا وه چې یو څه پوه شي چې جمله د څه په اړه ده، که نه نو دا به غلط شي. یو اپوکلپټیک مثال دا دی چې "روح راضي دی مګر غوښه ضعیفه ده." په روسیه کې د دوه اړخیزې ژباړې سره، دا کیږي: "ووډکا ښه ده، مګر غوښه خرابه ده." [۶] وروسته څیړونکو دا د عام پوهې ستونزه وبلله.

په 1964 کې، د ملي څیړنې شورا د پرمختګ د نشتوالي په اړه اندیښمنه وه او د ستونزې د څیړلو لپاره یې د اتوماتیک ژبې پروسس مشورتي کمیټه ( ALPAC ) جوړه کړه. د 1966 په مشهور راپور کې، دوی دې نتیجې ته ورسیدل چې ماشین ژباړه د انسان ژباړې په پرتله ډیره ګرانه، ډیره دقیقه او ورو ده. د شاوخوا 20 ملیون ډالرو مصرف وروسته ، NRC ټول ملاتړ پای ته ورساوه. دندې له لاسه ورکړل شوې او تحقیقات پای ته ورسیدل. [۷] [۸]

د ماشین ژباړه اوس هم په 21 پیړۍ کې د ځینو بریالیتوبونو ( ګوګل ژباړې ، یاهو بابل فش ) سره د خلاصې څیړنې ستونزه ده.

په 1969 کې د ارتباط پریښودل

سمول

د مصنوعي استخباراتو په اړه ځینې لومړني کارونه د هوښیار چلند انډول کولو لپاره شبکې یا یو له بل سره وصل شوي واحدونو سرکیټونو کارول. د دې طرز کار مثالونه چې د " کنکشنزم " په نوم یادیږي، د والټر پیټس او وارن مک کلوچ کار د منطق پلي کولو لپاره د عصبي شبکې د لومړي توضیح په توګه، یا د SNARC سیسټم کې د مارون مینسکي کار شامل دي. د 1950 لسیزې په وروستیو کې، کله چې څیړونکو سمبولیک استدلال د استخباراتو د جوهر په توګه وپلټئ، او د داسې پروګرامونو د بریالیتوب په پایله کې لکه د منطق تیوري او د عمومي ستونزو حل کول ، د پخوانیو پروګرامونو مخه ونیول شوه. [۹]

په هرصورت، د ارتباط کار یو ډول دوام درلود: د پرسیپټرون مطالعه، د فرانک روزنبلاټ لخوا اختراع شوې، چا چې ساحه د خپل پلور مسلک او شخصي هیلو له لارې ژوندی ساتلی. هغه په خوشبینانه توګه وړاندوینه وکړه چې پرسیپټرون "په پای کې د دې وړتیا لري چې زده کړي، پریکړې وکړي، او ژبې وژباړي." په 1969 کې، کله چې ماروین مینسکي او سیمور پیپرټ د Perceptrons کتاب خپور کړ، کوم چې فکر کیده چې د پرسیپټرون کاري محدودیتونه مهر کړي، د پرسیپټرون په اړه اصلي څیړنه په ناڅاپي توګه پای ته ورسیده.

ارتباطي تګلارې د راتلونکو لسیزو یا نورو لپاره پریښودل شوې. پداسې حال کې چې مهم کار، لکه د پاول وربس کشف د ریورس ډیفیوژن کشف، په محدود شکل کې دوام لري. د 1970 او 1980 لسیزو په لومړیو کې، د ارتباطي پروژو لپاره لوی تمویل ستونزمن و. [۱۰] د ارتباطي څیړنې "ژمی" د 1980 لسیزې په مینځ کې پای ته ورسیده، کله چې د جان هاپفیلډ ، ډیویډ رومیل هارډټ او نورو کار په لویه کچه د عصبي شبکو سره علاقه راژوندۍ کړه. [۱۱] روزنبلاټ د دې لیدو لپاره ژوندی نه و ، په هرصورت ، ځکه چې هغه د پرسیپټرون خوشې کیدو لږ وروسته د کښتۍ په حادثه کې مړ شو. [۱۲]

د 1974 ناکامۍ

سمول

د رڼا هیلې راپور

سمول

په 1973 کې، د برتانیا پارلمان د پروفیسور سر جیمز لایټیل څخه وغوښتل چې په انګلستان کې د مصنوعي استخباراتو څیړنې حالت ارزونه وکړي. د هغه راپور، چې اوس د Lighthill راپور په نوم یادیږي، د AI د "لویو اهدافو" په ترلاسه کولو کې په بشپړ ناکامۍ نیوکه وکړه. هغه دې پایلې ته ورسید چې هغه څه چې په مصنوعي استخباراتو کې نشي ترسره کیدی په نورو علومو کې نشي ترسره کیدی. هغه په ځانګړي ډول د " کمبیونیشن چاودنې " یا " غیر تولیدي وړتیا " ستونزه یادونه وکړه ، پدې معنی چې ډیری بریالي AI الګوریتمونه د ریښتیني نړۍ ستونزو باندې کار کول بندوي او یوازې د ستونزو د " لوب " نسخو حل کولو لپاره مناسب دي. [۱۳]

دا راپور په ۱۹۷۳ کال کې د بي بي سي د مشال راډیو په یوه خپرونه کې ننګول شوی و. د شاهي انسټیټیوټ د "عمومي هدف روبوټ یو میرج دی" بحث د لایټ هیل او ډونالډ میچي ، جان مک کارتي او ریچارډ ګریګوري ټیم ترمینځ و. [۱۴] مک کارتي وروسته لیکلي چې "د ګډې چاودنې ستونزه په مصنوعي استخباراتو کې له پیل څخه پیژندل شوې ده". [۱۵]

دا راپور په انګلستان کې د AI څیړنې د بشپړې مړینې لامل شو. [۱۶] د مصنوعي استخباراتو څیړنې یوازې په څو پوهنتونونو (اډینبورګ، ایسیکس او سسیکس) کې دوام لري. په لویه کچه څیړنه تر 1983 پورې بیا پیل نه شوه کله چې د جاپان د پنځم نسل پروژې په ځواب کې (لاندې وګورئ)، الوی (د برتانیا د حکومت یوه څیړنیزه پروژه) بیا د 350 ملیون پونډ جنګ فنډ څخه د مصنوعي استخباراتو تمویل پیل کړ. Alvey یوازې د انګلستان محدود شمیر اړتیاوې پوره کړې او له همدې امله په نړیواله کچه ونه منل شو، په ځانګړې توګه د متحده ایاالتو شریکانو سره، او د 2 مرحلې تمویل یې له لاسه ورکړ.

DARPA د 1970 لسیزې په لومړیو کې بودیجه کمه کړه

سمول

د 1960 لسیزې په اوږدو کې، د دفاعي پرمختللو څیړنو پروژو ادارې (بیا د ARPA په نوم پیژندل شوی، اوس د DARPA په نوم پیژندل شوی) د مصنوعي استخباراتو څیړنې لپاره ملیونونه ډالر ځانګړي کړل. JCR Licklider ، د DARPA د کمپیوټري څانګې بنسټ ایښودونکی رییس، په "خلکو تمویل کولو باور درلود، نه د پروژو"، [۱۷] او هغه او د AI مشرانو ته څو جانشینان (لکه مارون مینسکي ، جان مک کارتي، هربرټ ای. سیمون یا ایلن نیویل ) دوی ته اجازه ورکړه چې د خپلې پروژې تمویل په هر هغه طریقه وکړي چې دوی یې له دې بودیجې څخه غواړي.

دا چلند په 1969 کې د مینسفیلډ ترمیم له تصویب وروسته بدل شو، کوم چې DARPA ته اړتیا درلوده چې "مستقیم ماموریت پر بنسټ څیړنې، د غیر مستقیم بنسټیز څیړنې پر ځای" تمویل کړي. [۱۸] په 1960s کې د ترسره شوي ډول خالص غیر مستقیم تحقیق نور د DARPA لخوا تمویل شوي ندي. څیړونکي اوس باید وښيي چې د دوی کار به ډیر ژر ګټور نظامي ټیکنالوژي تولید کړي. د AI څیړنې وړاندیزونه خورا لوړ معیار ته چمتو شوي. د وضعیت سره مرسته ونه شوه کله چې د DARPA لخوا د Lighthill راپور او داخلي مطالعاتو وړاندیز وکړ چې د AI ډیری څیړنې احتمال نلري چې په راتلونکي کې واقعیا ګټور څه تولید کړي. د DARPA پیسې د ځانګړو پروژو لپاره د السته راوړلو وړ اهدافو لپاره کارول شوي، لکه خپلواک ټانکونه او د جګړې مدیریت سیسټمونه. تر 1974 پورې، د مصنوعي استخباراتو پروژو لپاره تمویل ستونزمن و. [۱۹]

د مصنوعي استخباراتو څیړونکی هانس موراویک د دې بحران لامل د خپلو همکارانو غیر واقعیتي وړاندوینې ګڼي: "ډیری څیړونکي د زیاتیدونکي مبالغې په جال کې نیول شوي. DARPA ته د دوی لومړنۍ ژمنې ډیرې خوشبینه وې. البته، هغه څه چې دوی ورسره راغلل له دې څخه خورا لږ وو. مګر دوی احساس کاوه چې دوی نشي کولی په راتلونکي وړاندیز کې د لومړي وړاندیز په پرتله لږ ژمنه وکړي، نو دوی ډیرې ژمنې وکړې. [۲۰] موراویک ادعا کوي چې پایله یې دا ده چې د DARPA ځینې کارمندانو د AI څیړنې سره صبر له لاسه ورکړی.

پداسې حال کې چې د خودمختاره ټانک پروژه ناکامه شوه، د جګړې مدیریت سیسټم ( یو متحرک بیا پلان کولو او تحلیل کولو وسیله ) خورا بریالۍ وه، د فارس خلیج په لومړۍ جګړه کې ملیاردونه ډالر خوندي کړل، په مصنوعي استخباراتو کې د DARPA ټولې پانګې بیرته ترلاسه کړې [۲۱] او دا د DARPA عملي توجیه وکړه. پالیسي. [۲۲]

د SUR ناکامي

سمول

DARPA د کارنیګي میلون پوهنتون کې د وینا پوهاوي څیړنې برنامې کې کار کولو څیړونکو څخه خورا مایوسه وه. دوی د داسې سیسټم تمه درلوده چې کولی شي د پیلوټ غږیز امرونو ته ځواب ووایي، او حتی احساس کوي چې دوی سره ژمنه شوې وه. د SUR ټیم یو سیسټم رامینځته کړی چې کولی شي د انګلیسي خبرې کول پیژني، مګر یوازې هغه وخت چې ټکي په یو ټاکلي ترتیب سره خبرې شوي وي . DARPA د درغلۍ احساس وکړ او په 1974 کې یې د 3 ملیون ډالرو کلن قرارداد فسخه کړ. [۲۳]

کلونه وروسته، د کارنیګي میلون ټیم (لکه د مارکوف پټ ماډلونه ) لخوا رامینځته شوي ټیکنالوژۍ څخه ډیری بریالي سوداګریزې وینا پیژندنې سیسټمونو کارول، او د وینا پیژندنې سیسټمونو بازار تر 2001 پورې 4 ملیارد ډالرو ته ورسید. [۲۴]

د 1980 لسیزې په وروستیو او د 1990 کلونو په لومړیو کې ناکامۍ

سمول

د ليسپ ماشین بازار سقوط

سمول

په 1980 لسیزه کې، د مصنوعي استخباراتو یو ډول پروګرام چې د " کارپوه سیسټم " په نوم یادیږي د نړۍ په کچه د شرکتونو لخوا تصویب شو. لومړی سوداګریز XCON ماهر سیسټم د ډیجیټل تجهیزاتو شرکت لپاره کارنیګي میلون کې رامینځته شوی او خورا لوی بریالیتوب و. دا اټکل شوی و چې شرکتونه به یوازې د شپږو کلونو عملیاتو کې 40 ملیون ډالر خوندي کړي. په ټوله نړۍ کې شرکتونو د متخصص سیسټمونو رامینځته کول او ځای په ځای کول پیل کړل، او تر 1985 پورې دوی په مصنوعي استخباراتو باندې له 1 ملیارد ډالرو څخه ډیر مصرف کړي، چې ډیری یې د کور دننه AI څانګو ته ځانګړي شوي. د صنعتونو یوه څپې د دوی د ملاتړ لپاره وده کړې ، پشمول د سافټویر شرکتونه لکه ټیکنالوژي او IntelliCorps (KEE) او هارډویر شرکتونه لکه Symbolix او Lisp Machine Institute ، چې د Lisp پروګرام کولو ژبې پروسس کولو لپاره غوره شوي د Lisp ماشینونو په نوم ځانګړي کمپیوټرونه جوړ کړي وو. دا پروګرامینګ ژبه په هغه وخت کې غوره شوې وه او د مصنوعي استخباراتو پلي کولو لپاره غوره ژبه وه. [۲۵] [۲۶]

په 1987 کې، د مینسکي او شینک له وړاندوینې درې کاله وروسته، د ځانګړي لیسپ پر بنسټ د AI هارډویر بازار سقوط وکړ. د شرکتونو څخه کار سټیشنونه لکه سن مایکروسیسټمونه د LISP ماشینونو لپاره یو وړ او ډیر وړ بدیل و ، او شرکتونه لکه لوسیډ د نوي ټولګي کاري سټیشنونو لپاره د Lisp چاپیریال چمتو کړ. د دې عمومي ورک سټیشنونو چلول د Lisp ماشینونو لپاره مخ په زیاتیدونکي ستونزمن ننګونه شوه. شرکتونو لکه لوسیډ او فرانز لیسپ د LISP خورا پیاوړې نسخې چمتو کړې چې د یونیکس ټولو سیسټمونو ته د پورټ وړ وې. د مثال په توګه، بنچمارکونه خپاره شوي چې ښیې چې کاري سټیشنونه د Lisp ماشینونو په پرتله د لوړې فعالیت ګټه لري. [۲۷] وروسته د ایپل او IBM لخوا رامینځته شوي ډیسټاپ کمپیوټرونو هم د Lisp برنامو چلولو لپاره یو ساده او خورا مشهور جوړښت چمتو کړ. په 1987 کې، ځینې یې د ګران لیسپ ماشینونو په څیر پیاوړي وو. ډیسټاپ کمپیوټرونو د قواعدو پر بنسټ انجنونه درلودل لکه کلیپس . [۲۸] دې بدیلونو د پیرودونکو لپاره د LISP چلولو لپاره د ګران ځانګړي تجهیزاتو پیرودلو لپاره هیڅ دلیل نه پریښود. په یو کال کې د نیم ملیارد ډالرو په ارزښت دا ټول صنعت په نورو انتخابونو بدل شو. [۲۹]

د 1990 لسیزې په لومړیو کې، ډیری سوداګریز Lisp شرکتونه ناکام شوي، په شمول د سمبولکس ، د لیسپ ماشین انسټیټیوټ ، لوسیډ ، او نور. نور شرکتونه، لکه د ټیکساس وسایل او زیروکس ، ساحه پریښوده. د تصدۍ یو لږ شمیر پیرودونکي (دا هغه شرکتونه دي چې په Lisp کې لیکل شوي سیسټمونه کاروي او د Lisp ماشین پلیټ فارمونو کې رامینځته شوي) د سیسټمونو ساتلو ته دوام ورکوي.

کندی در استقرار سیستم‌های خبره

سمول

در اوایل دهه ۱۹۹۰، نگهداری اولین سیستم‌های خبره موفق، مانند اکس کان، بسیار گران شده بودند. به روز رسانی آنها دشوار بود، آنها نمی‌توانستند یاد بگیرند، آنها «شکننده» بودند (یعنی وقتی ورودی‌های غیرعادی به آنها داده می‌شد، می‌توانستند اشتباهات فاحشی مرتکب شوند)، و طعمه مشکلاتی شدند (مانند مشکل صلاحیت) که سال‌ها قبل در آن شناسایی شده بود. تحقیق در منطق غیریکنواخت سیستم‌های خبره مفید بودند، اما فقط در چند زمینه خاص. مشکل دیگر مربوط به سختی محاسباتی منتج به تلاش‌های حفظ حقیقت برای دانش عمومی بود. KEE از یک رویکرد مبتنی بر فرض (NASA, TEXSYS را مشاهده کنید) برای پشتیبانی از سناریوهای چندجهانی استفاده کرد که درک و اعمال آن دشوار بود.

په نهایت کې ، د متخصص سیسټم ځینې پاتې شرکتونه دې ته اړ شوي چې د نوي بازارونو او سافټویر تمثیلونو اندازه کمه کړي او لټوي ، لکه د قضیې پراساس استدلال یا نړیوال ډیټابیس لاسرسی. د کامن لیسپ پختوالي ډیری سیسټمونه خوندي کړل لکه ICAD ، کوم چې د پوهې پراساس انجینرۍ کې غوښتنلیک موندلی. په کمپیوټر کې نور سیسټمونه، لکه KEE Intellicorp، له Lisp څخه C++ ته لیږدول شوي او د اعتراض پر بنسټ ټیکنالوژۍ رامینځته کولو کې مرسته کړې (پشمول د UML پراختیا لپاره لوی ملاتړ چمتو کول ( د UML شریکانو وګورئ).

د پنځم نسل پروژې پای

سمول

په 1981 کې، د جاپان د نړیوالې سوداګرۍ او صنایعو وزارت د پنځم نسل کمپیوټر پروژې لپاره 850 ملیون ډالر ځانګړي کړل. د دوی هدف د پروګرامونو لیکل او د ماشینونو جوړول وو چې کولی شي خبرې اترې، ژبې وژباړي، انځورونه تشریح کړي، او د انسانانو په څیر دلیل. تر 1991 پورې، په 1981 کې لیکل شوي د اهدافو اغیزمن لیست ترلاسه شوی نه و. د HP New Goist په کتاب کې د دماغ جوړونکي په وینا، "د جون په 1، 1992 کې، د پنځم نسل پروژه د بریالیتوب په ژړا سره نه، بلکې په یوه ویره سره پای ته ورسیده. د نورو AI پروژو په څیر، توقعات د هغه څه په پرتله خورا لوړ وو چې واقعیا ممکن وو. [۳۰]

د ستراتیژیک کمپیوټري نوښت کمول

سمول

په 1983 کې، د پنځم نسل پروژې په ځواب کې، DARPA بیا د ستراتیژیک کمپیوټري نوښت له لارې د مصنوعي استخباراتو څیړنې تمویل پیل کړ. لکه څنګه چې په اصل کې وړاندیز شوی، پروژه د عملي او لاسته راوړلو اهدافو سره پیل کیږي چې حتی د اوږدې مودې هدف په توګه مصنوعي عمومي استخبارات هم شامل دي. دا برنامه د معلوماتو پروسس کولو ټیکنالوژۍ دفتر (IPTO) لخوا اداره شوې او د سوپر کمپیوټرینګ او مایکرو الیکټرانیک په برخه کې کارول کیده. تر 1985 پورې، DARPA 100 ملیون ډالر مصرف کړي او 92 پروژې په 60 موسسو کې روانې وې، نیمایي یې په صنعت کې، نیم یې په پوهنتونونو او دولتي لابراتوارونو کې. د AI څیړنه په سخاوت سره د SCI لخوا تمویل شوې.

جیک شوارټز، چې په 1987 کې د IPTO مشر شو، د متخصص سیسټمونه یې د "هوښیار پروګرام کولو" په توګه رد کړل او AI ته یې تمویل په "ژور او بې رحمۍ" کم کړ او SCI یې "منحل" کړ. شوارټز احساس وکړ چې DARPA باید خپل تمویل یوازې په ټیکنالوژیو تمرکز وکړي چې خورا ژمنې ښیې ، هغه وویل DARPA باید د "سپي لامبو" پرځای "سرفینګ" وي او په کلکه یې احساس وکړ چې AI "بل" څپې دی. نه . د پروګرام دننه خلکو د اړیکو، تنظیم، او ادغام ستونزې یادونه وکړه. یو څو پروژې د بودیجې له کمښت څخه ژوندي پاتې شوې، پشمول د کوپائلټ او یو خپلواک ځمکني موټر (چې هیڅکله نه و سپارل شوی) او د DART د جګړې مدیریت سیسټم، کوم چې (لکه پورته یادونه وشوه) بریا وه. [۳۱]

د مصنوعي ځيرکتيا د ژمي وروسته پرمختګ

سمول

د 2000 لسیزې په لومړیو کې د راپورونو بیاکتنه ښیي چې شهرت دومره ښه نه و:

  • الیکس کاسټرو، په The Economist ، د جون 7، 2007 کې نقل کړی: "[پانګې اچوونکي] د "غږ پیژندنې" اصطلاح له امله ځنډول شوي، کوم چې د "مصنوعي استخباراتو په څیر،" هغه سیسټمونو ته اشاره کوي چې عملي شوي ندي. "
  • پتي تاسکاریلا په پیټسبورګ بزنس ټایمز ، 2006 کې: "ځینې په دې باور دي چې د روبوټیک کلمه په حقیقت کې یو بدنامي لري چې د شرکت د تمویل امکانات زیانمنوي." [۳۲]
  • جان مارکوف په نیویارک ټایمز ، 2005 کې لیکي: "ځینې کمپیوټر ساینس پوهان او سافټویر انجینران د مصنوعي استخباراتو له اصطالح څخه ډډه کوي ځکه چې د رواني ناروغۍ په توګه لیدل کیږي. » [۳۳]

د 2000 لسیزې په نیمایي کې د AI ډیری څیړونکو په قصدي توګه خپل کار په نورو نومونو لکه انفارماتیک ، ماشین زده کړه، تحلیلات، د پوهې پر بنسټ سیسټمونه ، د سوداګرۍ حاکمیت مدیریت ، ادراکي سیسټمونه ، هوښیار سیسټمونه، هوښیار اجنټان ، یا کمپیوټري استخباراتو په نوم یاد کړل ترڅو د دوی کار په ګوته کړي. په یوه ځانګړي وسیله ټینګار کوي، یا د یوې ځانګړې فرعي ستونزې حل کوي. پداسې حال کې چې دا ممکن په یوه برخه کې وي ځکه چې دوی د دوی ساحه په بنسټیز ډول د AI څخه توپیر لري، دا هم ریښتیا ده چې نوي نومونه د "AI" نوم سره تړلې د غلطو ژمنو د بدنامۍ څخه مخنیوي سره د تمویل تمویل کې مرسته کوي. [۳۳] [۳۴]

د مصنوعي استخباراتو ادغام

سمول

د 1990 لسیزې په وروستیو کې او د 21 پیړۍ په پیل کې، د مصنوعي استخباراتو ټیکنالوژي په پراخه توګه د لوی سیسټمونو عناصرو په توګه کارول کیده، [۳۵] [۴] مګر دا ساحه په ندرت سره د دې لاسته راوړنو لپاره پیژندل کیږي. په 2006 کې، نیک بوسټروم څرګنده کړه چې "ډیری پرمختللی مصنوعي استخبارات په عمومي غوښتنلیکونو کې پرته له دې چې مصنوعي استخباراتو ته ویل کیږي کارول شوي، ځکه چې کله یو څه ګټور او عام شي، د مصنوعي استخباراتو لیبل نور ورسره تړلی نه وي." [۳۶] روډني بروکس په ورته وخت کې وویل چې "دا احمقانه افسانه ده چې AI ناکام شوی، مګر AI د ورځې هره ثانیه ستاسو شاوخوا وي." [۴]

هغه ټیکنالوژي چې د مصنوعي استخباراتو څیړونکو لخوا په یو شمیر برخو کې رامینځته شوي لکه د ماشین ژباړه ، د معلوماتو کان کیندنې ، صنعتي روبوټکس ، لوژستیک ، [۳۷] د وینا پیژندنه ، [۳۸] بانکداري سافټویر ، [۳۹] طبي تشخیص ، [۴۰] او د ګوګل لټون انجن [۴۱] سوداګریزې بریاوې ترلاسه شوې.

د فزي منطق کنټرولرونه په موټرو کې د اتوماتیک لیږد لپاره رامینځته شوي (په 2006 کې Audi TT او VW Touareg [۴۲] او VW Caravelle د DSP لیږدونه درلودل چې فزي منطق یې کارولی و، ځینې Skoda ماډلونه ( Skoda Fabia ) اوس د فزي منطق پر بنسټ کنټرولر لري). د کیمرې سینسر هم د تمرکز وړ کولو لپاره په پراخه کچه فزي منطق کاروي.

سپړنې لټون او د معلوماتو تحلیل دواړه هغه ټیکنالوژي دي چې د مصنوعي استخباراتو څیړنې ټولنې د تکامل کمپیوټري او ماشین زده کړې فرعي برخې څخه رامینځته شوي. بیا بیا، دا تخنیکونه د پام وړ سوداګریز بریالیتوب سره د ریښتینې نړۍ ستونزو پراخه لړۍ کې پلي شوي.

د ډیټا تحلیل ټیکنالوژي د الګوریتمونو په کارولو سره په اتوماتيک ډول طبقه بندي رامینځته کوي چې په 1990s کې د نظارت شوي ماشین زده کړې ټولنې کې رامینځته شوي (د مثال په توګه ، TDIDT ، ملاتړ ویکتور ماشینونه ، عصبي شبکې ، IBL) اوس رامینځته کیږي ، په پراخه کچه د شرکتونو لخوا د بازار موندنې رجحاناتو موندلو لپاره سروې کاروي.

د مصنوعي ځيرکتيا تمویل

سمول

څیړونکي او اقتصاد پوهان اکثرا د AI ژمي حالت په دې اړه قضاوت کوي چې د AI پروژې کوم تمویل کیږي، څومره، او د چا لخوا. د تمویل پروسې اکثرا په پرمختللې نړۍ کې د لوی تمویل کونکو ادارو لخوا ټاکل کیږي. اوس مهال، DARPA او د EU-FP7 په نوم د ملکي تمویل پروګرام تر ډیره په متحده ایالاتو او اروپایي اتحادیه کې د AI څیړنې تمویل کوي.

له 2007 راهیسې، DARPA د یو شمیر پروګرامونو د فرعي سیټ په توګه د AI څیړنې وړاندیزونه غوښتي دي په شمول د لوی ننګونو پروګرام ، د ادراکي ټکنالوجۍ ګواښ خبرتیا سیسټم (CT2WS)، د انسان مرستندویه عصبي وسایل (SN07-43) ، د څارنې امیجنگ سیسټم دا "خوراکي حقیقت" و. - د ځمکې په اوږدو کې وخت (ARGUS-IS )" او " د ښاري استدلال ټیکنالوژي او جغرافيائی استحصال (عاجل) ".

ښایي د دې پروګرامونو څخه تر ټولو مشهور د DARPA لوی ننګونه [۴۳] ده، کوم چې په بشپړ ډول خپلواکه سړک موټرونه رامینځته کړي چې کولی شي په بشپړ ډول په خپلواکه توګه د حقیقي ځمکې [۴۴] په بریالیتوب سره حرکت وکړي.

DARPA په سیمانټیک ویب کې د غوښتنلیکونو ملاتړ هم کړی چې د هوښیار مینځپانګې مدیریت او اتوماتیک پوهاوی باندې قوي ټینګار کوي. په هرصورت، جیمز هینډلر ، د DARPA د پروګرامونو رییس، په هغه وخت کې د حکومت د چټکو بدلونونو له وړتیا څخه خپګان څرګند کړ او خصوصي سکټور ته د ټیکنالوژیو لیږدولو لپاره یې د ورلډ وایډ ویب کنسورشیم سره کار پیل کړ.

د EU-FP7 تمویل پروګرام د EU څیړونکو ته مالي ملاتړ چمتو کوي. په 2007-2008 کې، دې پروګرام د ادراکي سیسټمونو کټګورۍ لاندې د مصنوعي استخباراتو څیړنې تمویل کړې؛ په شمول: د متقابل عمل او روبوټیک پروګرام (193 ملیون یورو)، کتابتونونه او د ډیجیټل مینځپانګې پروګرام (203 ملیون یورو) او د FET پروګرام (185 ملیون یورو).

اوسنی "مصنوعي ځيرکتيا پسرلی".

سمول

د مصنوعي استخباراتو د تمویل، پراختیا، ځای په ځای کولو او تجارتي استعمال کې ډراماتیک زیاتوالی د دې لامل شوی چې د مصنوعي استخباراتو ژمی د اوږدې مودې وروسته پای ته ورسیږي. ځینې وختونه اندیښنې راپورته کیږي چې د AI نوی ژمی ممکن د مخکښو AI ساینس پوهانو لخوا د خورا هوښیار یا غیر واقعیت ژمنو لخوا رامینځته شي.

د اوسني "مصنوعي استخباراتو پسرلي" بریالیتوبونه د ژبې په ژباړه کې پرمختګونه دي (په ځانګړې توګه د ګوګل ژباړې )، د انځور پیژندنه (کوم چې د ImageNet روزنې بنسټ لخوا پرمخ وړل شوی)، د ګوګل انځور لټون لخوا ځواکمن شوی، او د لوبو سیسټمونو لکه الفا زیرو (د شطرنج اتلولۍ) کې پرمختګونه دي. ) او الفاګو (چمپین) ګو) او واټسن ( اسرار هیرو) سوداګریز شوي دي. ډیری دا پرمختګونه د 2010 راهیسې پیښ شوي.

د مصنوعي ځيرکتيا د ژمي تر شا د شاليد لاملونه

سمول

په عمومي توګه د AI ژمي لاملونو لپاره ډیری توضیحات وړاندې شوي. لکه څنګه چې د مصنوعي استخباراتو پرمختګ او غوښتنلیکونه د دولتي بودیجې څخه سوداګریزو غوښتنلیکونو ته حرکت کوي، نوي متحرکات په عمل کې راځي.

اړوندې پوښتنې

سمول
  1. AI Expert Newsletter: W is for Winter Archived 9 November 2013 at the Wayback Machine.
  2. Crevier 1993، م. ۲۰۳.
  3. ۳٫۰ ۳٫۱ Crevier 1993.
  4. ۴٫۰ ۴٫۱ ۴٫۲ ۴٫۳ Kurzweil 2005.
  5. Different sources use different dates for the AI winter. Consider: (1) کينډۍ:Harvard citation no brackets: "Lighthill's [1973] report provoked a massive loss of confidence in AI by the academic establishment in the UK (and to a lesser extent in the US). It persisted for a decade ― the so-called '"AI Winter'", (2) کينډۍ:Harvard citation no brackets: "Overall, the AI industry boomed from a few million dollars in 1980 to billions of dollars in 1988. Soon after that came a period called the 'AI Winter'".
  6. Russell او Norvig 2003.
  7. John Hutchins 2005 The history of machine translation in a nutshell. Archived 13 July 2019 at the Wayback Machine.
  8. John Hutchins 2005 The history of machine translation in a nutshell. Archived 13 July 2019 at the Wayback Machine.
  9. کينډۍ:Harvard citation no brackets
  10. کينډۍ:Harvard citation no brackets, کينډۍ:Harvard citation no brackets, کينډۍ:Harvard citation no brackets
  11. کينډۍ:Harvard citation no brackets and کينډۍ:Harvard citation no brackets
  12. کينډۍ:Harvard citation no brackets
  13. کينډۍ:Harvard citation no brackets, کينډۍ:Harvard citation no brackets, کينډۍ:Harvard citation no brackets and see also کينډۍ:Harvard citation no brackets
  14. "BBC Controversy Lighthill debate 1973". BBC "Controversy" debates series. ARTIFICIAL_INTELLIGENCE-APPLICATIONS¯INSTITUTE. 1973. بياځلي په 13 August 2010.
  15. McCarthy, John (1993). "Review of the Lighthill Report". خوندي شوی له the original on 30 September 2008. بياځلي په 10 September 2008.
  16. کينډۍ:Harvard citation no brackets, کينډۍ:Harvard citation no brackets, کينډۍ:Harvard citation no brackets and see also کينډۍ:Harvard citation no brackets
  17. کينډۍ:Harvard citation no brackets
  18. کينډۍ:Harvard citation no brackets (only the sections before 1980 apply to the current discussion).
  19. کينډۍ:Harvard citation no brackets (only the sections before 1980 apply to the current discussion).
  20. کينډۍ:Harvard citation no brackets
  21. کينډۍ:Harvard citation no brackets
  22. کينډۍ:Harvard citation no brackets
  23. کينډۍ:Harvard citation no brackets (on whom this account is based). Other views include کينډۍ:Harvard citation no brackets and کينډۍ:Harvard citation no brackets under "Success in Speech Recognition".
  24. کينډۍ:Harvard citation no brackets under "Success in Speech Recognition".
  25. کينډۍ:Harvard citation no brackets
  26. کينډۍ:Harvard citation no brackets
  27. Brooks, Rodney. "Design of an Optimizing, Dynamically Retargetable Compiler for Common LISP" (PDF). Lucid, Inc. خوندي شوی له the original (PDF) on 20 August 2013.
  28. Avoiding another AI Winter, James Hendler, IEEE Intelligent Systems (March/April 2008 (Vol. 23, No. 2) pp. 2–4
  29. کينډۍ:Harvard citation no brackets
  30. کينډۍ:Harvard citation no brackets
  31. کينډۍ:Harvard citation no brackets
  32. Robotics firms find fundraising struggle, with venture capital shy. By Patty Tascarella. Pittsburgh Business Times (11 August 2006) Archived 26 March 2014 at the Wayback Machine.
  33. ۳۳٫۰ ۳۳٫۱ https://www.nytimes.com/2005/10/14/technology/14artificial.html?ei=5070&en=11ab55edb7cead5e&ex=1185940800&adxnnl=1&adxnnlx=1185805173-o7WsfW7qaP0x5/NUs1cQCQ. {{cite news}}: Missing or empty |title= (help); Unknown parameter |Date= ignored (|date= suggested) (help) Invalid <ref> tag; name "Markoff" defined multiple times with different content
  34. کينډۍ:Harvard citation no brackets
  35. کينډۍ:Harvard citation no brackets under "Artificial Intelligence in the 90s"
  36. AI set to exceed human brain power CNN.com (26 July 2006) Archived 3 November 2006 at the Wayback Machine.
  37. For the new state of the art in AI-based speech recognition, see Are You Talking to Me? Archived 13 June 2008 at the Wayback Machine.
  38. For the use of AI at Google, see Google's man behind the curtain, Google backs character recognition and Spying an intelligent search engine.
  39. "AI-inspired systems were already integral to many everyday technologies such as internet search engines, bank software for processing transactions and in medical diagnosis." Nick Bostrom, AI set to exceed human brain power CNN.com (26 July 2006) Archived 3 November 2006 at the Wayback Machine.
  40. "AI-inspired systems were already integral to many everyday technologies such as internet search engines, bank software for processing transactions and in medical diagnosis." Nick Bostrom, AI set to exceed human brain power CNN.com (26 July 2006) Error in webarchive template: Check |url= value. Empty.
  41. For the use of AI at Google, see Google's man behind the curtain, Google backs character recognition and Spying an intelligent search engine.
  42. Touareg Short Lead Press Introduction, Volkswagen of America Archived 16 February 2012 at the Wayback Machine.
  43. Grand Challenge Home Archived 24 December 2010 at the Wayback Machine.
  44. DARPA Archived 6 March 2009 at the Wayback Machine.

حوالې

سمول

نورې زده کړې

سمول
  • مارکس، ګاري، "آیا زه انسان یم؟: څیړونکي د مصنوعي ځيرکتيا د طبیعي ډول څخه د توپیر لپاره نوي لارو ته اړتیا لري"، ساینسي امریکایی ، vol. 316، ګڼه 3 (مارچ 2017)، مخونه 58-63. د AI د کار کولو لپاره ډیری ازموینو ته اړتیا ده ځکه چې "لکه څنګه چې د ورزشي مهارتونو یو واحد ازموینه شتون نلري، د استخباراتو هیڅ حتمي ازموینه شتون نلري." داسې یوه ازموینه، "د ساختماني ننګونه،" احساس او فزیکي عمل ازموینه کوي - "د هوښیار چلند دوه مهم عناصر چې د اصلي تورینګ ازموینې څخه په بشپړ ډول غیر حاضر وو." بل وړاندیز دا دی چې ماشینونه دې په ساینس او نورو مضامینو کې ورته معیاري ازموینې ورکړي چې زده کونکي یې اخلي. تر اوسه پورې، د مصنوعي استخباراتو لپاره د نه منلو وړ خنډ د باور وړ بې برخې کولو نشتوالی دی. "[V] په حقیقت کې هره جمله [چې خلک یې تولیدوي] مبهم دي، ډیری وختونه په بیلابیلو لارو. یو مهم مثال د "ضمیر بې ځایه کولو ستونزه" په نوم پیژندل کیږي: یو ماشین په یوه جمله کې د څوک یا کوم ضمیر ټاکلو لپاره هیڅ لاره نلري - لکه "هغه،" "هغې،" یا "دا" ته اشاره کوي.

بهرنۍ لینک

سمول