الگوریتمي انحراف
الګوریتمي انحراف (Algorithmic bias) په یو کمپیوټري سیسټم کې سیستماتیکې او تکرار کېدونې تېروتنې توصیف کوي؛ هغه چې «ناسمې» پایلې رامنځته کوي لکه د الګوریتم د پام وړ عملکرد له مخې د متفاوتو لارو چارو څخه په ګټنې یو ډلې ته د بلې په پرتله «امتیاز» قائلېږي.
دغه ډول انحراف کېدای شي د ګڼ شمېر لاملونو له مخې وي چې کېدای شي په هغو کې د الګوریتم طراحي، معلوماتو ته د کوډ ورکولو، راغونډولو او انتخاب ډول چې د الګوریتم څخه د ګټنې په زده کړه کې ترې کار اخیستل کېږي شامل شي، خو دغو ته محدود نه دی. د بېلګې په توګه، الګوریتمي انحراف د پلټونکو سیسټمونو او ټولنیزو رسنیو په اساساتو کې لیدل کېږي. دغه انحراف کېدلای شي د خصوصي حریم له غیر عمدي سرغړونې څخه د نژادي، جنسیتي، جنسي او قومي ټولنیز انحراف تر پیاوړتیا پورې اغېز ولري. د الګوریتمي انحراف مطالعه تر ډېره پورې هغو الګوریتمونو ته اړوندېږي چې «سیستماتیک او غیرعادلانه» انحراف منعکس کوي. په وروستیو کې دغه انحراف ته په قانوني اډانه لکه د اروپايي اتحادیې له خوا د اطلاعاتو د خوندیتوب په عمومي مقررې (۲۰۱۸ زکال) او د مصنوعي ځیرکتیا په وړاندیز شوي قانون (۲۰۲۱ زکال) کې پام شوی.
په داسې حال چې الګوریتمونه د ټولنې، سیاست، بنسټونو او چلن د تنظیم په برخه کې خپلې وړتیاوې پراخوي، ټولن پوهانو هغو لارو ته پام کړی چې په هغو کې له وړاندې نه څرګندې شوې د وتو لارې او د اطلاعاتو لاس وهنه کولای شي په فزیکي نړۍ اغېز ولري. له دې امله چې الګوریتمونه تر ډېره پورې شنډ او بې پلوه په پام کې نیول کېږي خو په ناسمه توګه کولای شي چې له انساني تخصص څخه په زیاته کچه ځواک وړاندې کړي (تر یوه بریده د اتوماتیک کولو د اروايي انحراف د ښکارندې له امله)؛ همدارنګه په ځینو مواردو کې په الګوریتمونو باندې تکیه کولای شي دانساني مسئولیت ځایګی ونیسي. دغه ډول انحراف کېدای شي له وړاندې څخه د موجودو کلتوري، ټولنیزو یا سازماني تمو د پایلې په توګه د الګوریتم په طراحي کې د تخنیکي محدودیتونو له امله او یا هم د هغو مخاطبینو د نه انګېرل شوې استفادې له امله چې د یو سافټ ویر په لومړنۍ طراحي کې په پام کې نه دي نیول شوي؛ الګوریتمي سیسټم ته داخل کړای شي.
الګوریتمي انحراف د ټاکنو له پایلو څخه نیولې په انلاین توګه د نفرت جوړونکو خبرو اترو د خپراوي تر مواردو پورې یادول کېږي. همدارنګه د جنايي عدالت، روغتیايي پالنو او استخدام په برخو کې د نژادي، ټولنیز – اقتصادي او جنسیتي تبعیض د ترکیب په مواردو کې یادول کېږي. دڅېرې پېژندلو په ټکنالوژۍ کې نسبي کمزورتیا چې له امله یې ډېرې تورې څېرې په سمه توګه نشي تشخیص کېدلای د تور پوستو وګړو له یو شمېر ناقانونه نیونو سره اړونده ده؛ هغه ستونزه چې له یو شمېر نا متعادله اطلاعاتو څخه سرچینه اخلي. د الګوریتمي انحراف په درک، تحقیق او کشف کې ستونزې د الګوریتمونو د ځانګړي ماهیت له امله چې معمولا د سوداګریزو اسرارو په توګه ګڼل کېږي دوام لري. آن هغه مهال چې کامله روڼتیا وړاندې کېږي، د ځانګړو الګوریتمونو پیچلتیا د هغو د عملکرد په درک کې ستونزې جوړوي. له دې سربېره الګوریتمونه کېدای شي تغیر وکړي او د وردوي او خروجي اړوند داسې غبرګون وښيي چې د وړاندوینې وړ نه وي او یا هم په اسانۍ سره د تحلیل په موخه بیاځلي تولید نه شي. په ډېری مواردو کې آن په یوه ویب پانه یا پروګرام کې د ارزونې په موخه واحد «الګوریتم» شتون نه لري، بلکې د هماغه سرویس د کار کوونکو ترمنځ د پروګرامونو او اطلاعاتو یو بل ته اړونده شبکه شتون لري.
اغېز
سمولسوداګریز اغېز
سمولشرکتي الګوریتمونه کولای شي په ناڅرګنده توګه د مالي تنظیماتو یا د شرکتونو ترمنځ هوکړو ته انحراف وکړي، پرته له دې چې کاروونکی یې وپوهېږي هغه چې کېدای شي په غلطۍ سره فکر وکړي چې دا بې پلوه دي. د بېلګې په توګه امریکن ایرلاین په ۱۹۸۰ مه لسیزه کې د الوتنو د لټون یو الګوریتم جوړ کړ. دغه پروګرام د بېلابېلو هوايي شرکتونو الوتنې خپلو پیرودونکو ته وړاندې کولې، خو له دې سره یې قیمت یا هوساینې ته له پام پرته د خپلو الوتنو تقویت په کې سنجش کړی و. د متحده ایالاتو په کانګرس کې د دغه هوايي شرکت مشر په زغرده توګه څرګنده کړه چې دغه سیسټم یې د سیالي کونکي مزیت په موخه د ترجیجي چلن له مخې جوړ کړی دی. [۱][۲]
په ۱۹۹۸ زکال کې هغې مقالې چې ګوګل لټون کونکی سیسټم په کې تشریح شوی و په کې راغلي و چې د دغې کمپنۍ بنسټګر د لګښت ورکړل شوې ځای ټاکنې اړوند د شفافیت پالیسي د خپل لټون په پایلو کې تعقیبوي او استدلال یې کاوه چې «د تبلیغاتو پر بنسټ لټون کوونکي سیسټمونه په ذاتي توګه د مصرف کوونکو پر ځای د تبلیغ کوونکو لوري ته انحراف لري». دغه انحراف کېدای شي د کاروونکي لپاره یوه «نه څرګندېدونکې» لاسوهنه وي. [۳]
انلاین کرکه پاروونکې څرګندونې
سمولد فیس بوک د داخلي اسنادو پر بنسټ، فیس بوک په ۲۰۱۷ زکال کې داسې الګوریتم طراحي کړ چې د تور پوستو ماشومانو اړوند یې د سپین پوستو نارینه وو پر لیکه/انلاین کرکې پاروونکې څرګندونې او هغه څرګندونې چې د ارزونې پر بنسټ یې دغه ډول اعتراضي محتوا لرله؛ هیسته کولې. دغه الګوریتم چې د کمپیوټري پروګرامو او د محتوا د انساني ارزونکو له ترکیب څخه جوړ و د ځانګړو ډلو پر ځای د پراخو ټولګو څخه د خوندیتوب په موخه رامنځه شو. د بېلګې په توګه هغه لیکنې چې «مسلمانان» یې محکوم کول، بلاک کېدلې، په داسې حال کې چې نورو هغو به چې یوازې «راډیکال مسلمانان» یې په نښه کول اجازه یې لرله. [۴][۵][۶][۷]
څارنه
سمولد یو بل سره تړلو کمرو سافټ ویر کېدای شي په ذاتي توګه سیاسي وګڼل شي ځکه داسې الګوریتمونو ته اړتیا لري څو عادي او غیر عادي چلندونه سره جلا او مالوم کړي چې کوم کسان په ځانګړي مهال کې ځانګړي مکان ته اړوند دي. ښوول شوې چې په یوه نژادي طیف کې د څېرو د پېژندنې لپاره په انځورونو کې د نژادي توپیرونو له امله د هغو اطلاعاتي زېرمې له محدودیت سره مخ کېږي. که چېرې ډیری انځورونه یو نژاد یا جنسیت ته اړوند وي سافټ ویر یې د هغه نژاد یا جنسیت نور غړي په ښه توګه تشخیص کولای شي. [۸][۹][۱۰][۱۱]
جنسي تبعیض
سمولپه ۲۰۱۱ زکال کې د همجنسګرایانو د اړیکې نیولو اپلیکیشن ګرینډر (Grindr) راپور خپور کړ چې د اندروید سټور د پلورنځي الګوریتم د هغوی اپلیکیشن له هغو پروګرامونو سره اړوند ښيي چې د جنسي مجرمانو د موندلو په موخه طراحي شوي او نیوکه کوونکي یې وايي چې هغوی په ناسمه توګه همجنسګرايي له پدوفیلي سره اړونده بولي. لیکوال مایک آنانی په دغه شرکت باندې په اتلانتیک مجله کې نیوکه وکړه او استدلال یې وکړ چې دغه ډول بنسټونه د همجنسګرایانو نارینه و په واسطه بدنامه کېږي. په ۲۰۰۹ زکال کې د امازون انلاین پلورنځي هغه مهال چې د «لویانو د محتویاتو» د بلاک کولو اړوند الګوریتم ته یې پراختیا ورکړه ۵۷۰۰۰ هغه کتابونه چې جنسي یا د همجنسګرایانو موضوعاتو ته اړوند کېدل لکه د Brokeback Mountain په نامه ناول چې د هغو د منتقدینو له خوا یې هم هیسته کول وستایل شول؛ د خپل پلورنځي له لیست هیسته کړل. [۱۲][۱۳][۱۴][۱۵]
په ۲۰۱۹ زکال کې فیسبوک وموندله چې «زما د ښځینه ملګرو د انځورونو» لپاره لټون له یو شمېر لنډیزونو لکه «په لنډو جامو» یا د «ساحل په غاړه» سره شتون درلود. بر خلاف «زما د نارینه ملګرو د انځورونو» لپاره لټون هېڅ پایله نلرله. [۱۶]
همدارنګه موندل شوې چې د څېرې د تشخیص ټکنالوژي د درې جنسه وګړو د څېرې پېژندلو په برخه کې ستونزې لري. په ۲۰۱۸ زکال کې د اوبر د څېرې د تشخیص له سافټ ویرونو سره چې د خپل داخلي امنیتي سیسټم په موخه یې ترې ګټنه کوله د اوبر د هغو موټر چلونکو د ستونزو راپور شتون درلود چې جنسیتي تغیر یې درلود او یا هم د جنسیتي تغیر په حالت کې و. په پایله کې د اوبر د یو شمېر درې جنسه و چلوونکو اکونټونه وځنډول شول او د هغو لپاره یې د کرایې په بیه او همدارنګه شغلي بالقوه لګښت له ځانه سره درلود، دا ټول له دې امله و چې د څېرې پېژندلو سافټ ویر د هغو چلوونکو د څېرې په تشخیص کې ستونزه لرله چې جنسیت یې د بدلون په حال کې و. [۱۷][۱۸]
د ګوګل لټون
سمولپه داسې حال کې چې کاروونکي په بشپړ ډول اتوماتیکې پایلې تولید کوي؛ ګوګل نه دی توانېدلی څو جنسي او نژاد پرسته متون په اتوماتیک ډول لرې کړي. د بېلګې په توګه صفیا نوبل په خپل کتاب ځپونکي الګوریتمونه: څه ډول لټون کوونکي سیسټمونه نژادپرستي پیاوړې کوي (Algorithms of Oppression: How Search Engines Reinforce Racism) کې د «تور پوستو نجونو» د پلټنې نمونې ته اشاره کوي چې په پایله کې یې فورنوګرافیک انځورونه را اوړي. ګوګل ادعا کړې چې د دغو پاڼو د پاکولو واک نلري او یوازې هغه مهال دغه چاره امکان لري چې غیرقانوني وګڼل شي. [۱۹]
سرچينې
سمول- ↑ Sandvig, Christian; Hamilton, Kevin; Karahalios, Karrie; Langbort, Cedric (22 May 2014). "Auditing Algorithms: Research Methods for Detecting Discrimination on Internet Platforms" (PDF). 64th Annual Meeting of the International Communication Association. بياځلي په 18 November 2017.
- ↑ Friedman, Batya; Nissenbaum, Helen (July 1996). "Bias in Computer Systems" (PDF). ACM Transactions on Information Systems. 14 (3): 330–347. doi:10.1145/230538.230561. S2CID 207195759. بياځلي په 10 March 2019.
- ↑ Sandvig, Christian; Hamilton, Kevin; Karahalios, Karrie; Langbort, Cedric (22 May 2014). "Auditing Algorithms: Research Methods for Detecting Discrimination on Internet Platforms" (PDF). 64th Annual Meeting of the International Communication Association. بياځلي په 18 November 2017.
- ↑ Angwin, Julia; Grassegger, Hannes (28 June 2017). "Facebook's Secret Censorship Rules Protect White Men From Hate Speech But Not Black Children — ProPublica". ProPublica. بياځلي په 20 November 2017.
- ↑ Angwin, Julia; Varner, Madeleine; Tobin, Ariana (14 September 2017). "Facebook Enabled Advertisers to Reach 'Jew Haters' — ProPublica". ProPublica. بياځلي په 20 November 2017.
- ↑ کينډۍ:Cite conference
- ↑ Ghaffary, Shirin (15 August 2019). "The algorithms that detect hate speech online are biased against black people". Vox. بياځلي په 19 February 2020.
- ↑ Furl, N (December 2002). "Face recognition algorithms and the other-race effect: computational mechanisms for a developmental contact hypothesis". Cognitive Science. 26 (6): 797–815. doi:10.1207/s15516709cog2606_4.
- ↑ Raji, Inioluwa Deborah; Gebru, Timnit; Mitchell, Margaret; Buolamwini, Joy; Lee, Joonseok; Denton, Emily (7 February 2020). "Saving Face: Investigating the Ethical Concerns of Facial Recognition Auditing". Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society. Association for Computing Machinery: 145–151. arXiv:2001.00964. doi:10.1145/3375627.3375820. ISBN 9781450371100. S2CID 209862419.
- ↑ Introna, Lucas; Wood, David (2004). "Picturing algorithmic surveillance: the politics of facial recognition systems". Surveillance & Society. 2: 177–198. بياځلي په 19 November 2017.
- ↑ Buolamwini, Joy; Gebru, Timnit (2018). "Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification" (PDF). Proceedings of Machine Learning Research. 81: 1 – via MLR Press.
- ↑ Ananny, Mike (2011-04-14). "The Curious Connection Between Apps for Gay Men and Sex Offenders". The Atlantic. بياځلي په 18 November 2017.
- ↑ Kafka, Peter. "Did Amazon Really Fail This Weekend? The Twittersphere Says 'Yes,' Online Retailer Says 'Glitch.'". AllThingsD. بياځلي په 22 November 2017.
- ↑ Kafka, Peter. "Amazon Apologizes for 'Ham-fisted Cataloging Error'". AllThingsD. AllThingsD. بياځلي په 22 November 2017.
- ↑ Gillespie, Tarleton; Boczkowski, Pablo; Foot, Kristin (2014). Media Technologies. Cambridge: MIT Press. pp. 1–30. ISBN 9780262525374.
- ↑ Matsakis, Louise (2019-02-22). "A 'Sexist' Search Bug Says More About Us Than Facebook". Wired. ISSN 1059-1028. بياځلي په 2019-02-26.
- ↑ "Some AI just shouldn't exist". 2019-04-19.
- ↑ Samuel, Sigal (2019-04-19). "Some AI just shouldn't exist". Vox (in انګليسي). بياځلي په 2019-12-12.
- ↑ Noble, Safiya Umoja (2018-02-20). Algorithms of Oppression: How Search Engines Reinforce Racism. New York. ISBN 9781479837243. OCLC 987591529.
{{cite book}}
: CS1 maint: location missing publisher (link)