۷ اردیبهشت ۱۳۹۸ ساعت ۲۳:۳۶

عواقب استفاده از الگوریتم ها و شکاف دیجیتال جدید

عواقب استفاده از الگوریتم ها و شکاف دیجیتال جدید

گروه غرب از نگاه غرب خبرگزاری فارس: امروزه الگوریتم های هوش مصنوعی هدایت بسیاری از جنبه های زندگی را در کنترل خود گرفته اند؛ از انتخاب اینکه چه مسیری را باید در رفت و آمدهای هر روزه به محل کار درپیش گرفت تا تصمیم گیری در ابن باره که با چه کسی باید قرار دوستانه بگذارید تا مسائل قانونی و قضایی و حقوقی پیچیده ای نظیر پیش بینی مجرمان پر خطر.
شرکت های بزرگ فناوری همچون گوگل و فیس بوک از هوش مصنوعی برای شناخت  بیشتر مشتریانشان از طریق گنجینه عظیم و همراه با جزئیات داده های آنها استفاده می کنند. این کار به آنها اجازه می دهد تا عملکردهای جمعی کاربران را از طریق اقداماتی چون هدف قرار دادن محدود به پول تبدیل کنند؛ راهبردی که آگهی دهندگان برای هدف قرار دادن دقیق مجموعه ای از کاربران به کار می گیرند.
به این ترتیب است که هم اکنون بسیاری از افراد بیشتر به پلتفرم ها و الگوریتم ها اعتماد دارند تا دولت ها و جامعه مدنی خودشان. مطالعه ای که در اکتبر سال 2018 انجام گردید نشان داد که مردم آنقدر الگوریتم ها را مرجع شناخت خود قرار داده اند که بیشتر به تجهیزات تکنولوژیک اتکا می کنند، تا جایی که فکر می کنند آنها به شکلی از الگوریتم اتکا دارند نه انسان.
در گذشته متخصصان فناوری از به وجود آمدن یک «شکاف دیجیتال» بین کسانی که می توانستند به رایانه ها و اینترنت دسترسی داشته باشند و کسانی که نمی توانستند نگران بودند. در نتیجه خانوارهایی که دسترسی کمتر به فناوری های دیجیتال داشتند، در توانایی خود برای کسب پول و انباشت مهارت ها به نوعی فاقد امتیاز لازم بودند.
اما با توجه به تکثیر سریع وسایل دیجیتال، این شکاف دیگر تنها درباره دسترسی نیست. مردم با بیش انباشتی اطلاعات و انبوه تصمیمات الگوریتمی که  تک تک جنبه های زندگی شان را به تصرف خود در می آورد چگونه باید برخورد کنند؟
کاربران زیرک تر در حال فاصله گرفتن از وسایل خود و کسب آگاهی های بیشتر در مورد نحوه اثرگذاری الگوریتم ها بر زندگی خود هستند. در عین حال مشتریانی که اطلاعات کمتری دارند، حتی بیشتر از قبل در حال اتکا بر الگوریتم ها در نحوه تصمیم گیری های خود هستند.

راز پنهان در پشت هوش مصنوعی
من هم مثل بسیاری افراد دیگری که درمورد سیستم های اطلاعات مطالعه می کند، دلیل اصلی شکاف دیجیتال جدید را این می دانم که عده بسیار اندکی از مردم از نحوه کار الگوریتم ها خبر دارند. اکثریت کاربران الگوریتم ها را به چشم یک جعبه سیاه می بینند.
الگوریتم های هوش مصنوعی داده ها را می گیرند، آنها را در یک مدل ریاضی جا می دهند و درباره طیفی از مسائل دست به یک پیش بینی می زنند؛ از اینکه شما از چه ترانه ای ممکن است خوشتان بیاید گرفته تا اینکه یک نفر چند سال را باید در زندان بگذراند. این مدل ها بر اساس داده های گذشته و دسترسی به مدل های پیشین توسعه پیدا کرده و بهبود یافته اند. بیشتر مردم - حتی در مواقعی خود طراحان الگوریتم ها – واقعا نمی دانند که در درون یک مدل چه می گذرد.
پژوهشگران مدت هاست که نسبت به انصاف الگوریتمی ابراز نگرانی می کنند. برای مثال معلوم شده است که ابزار استخدامی مبتنی بر هوش مصنوعی آمازون نامزدهای زن را نادیده می گیرد. این سیستم آمازون به طور گزینشی کلمات به وضوح جنسیتی را استخراج می کند، کلماتی که احتمال استفاده مردان از آنها در مکالمات روزمره شان بیشتر است، کلماتی از قبیل «انجام شد» و «دستگیر شد.»
سایر مطالعات نیز نشان داده اند که الگوریتم های قضایی دارای سوگیری نژادی هستند و متهمان سیاه پوست فقیر را بیشتر از دیگران برای مدت طولانی تری محکوم می کنند.
 در قالب «قانونگذاری صیانت از داده های عمومی در اتحادیه اروپا» که به تازگی به تصویب رسیده، افراد این حق را پیدا کرده اند تا پیرامون معیاری که الگوریتم ها برای اتخاذ تصمیمات خود در مورد آنها به کار برده اند، توضیح بخواهند. این قانون با روند تصمیم گیری الگوریتمی همچون یک کتاب آشپزی برخورد می کند. فکر پشت تدوین این قانون این بوده که اگر شما دستور پخت را درک کنید، می توانید درک کنید که الگوریتم چگونه بر زندگی شما تاثیر می گذارد.
در عین حال برخی از پژوهشگران هوش مصنوعی  برای به کار گرفته شدن الگوریتم هایی فشار آورده اند که عادل، پاسخگو و شفاف و همچنین قابل تفسیر باشند، به این معنا که آنها باید تصمیمات خود را از طریق روندهایی اتخاذ کنند که انسان ها بتوانند آن روندها را بفهمند و به آنها اعتماد کنند.
در این میان  شفافیت چه تاثیری خواهد داشت؟ در یک مطالعه دانشجویان  بر اساس الگوریتم کلاس بندی شدند و در این باره که نمرات همکلاسی هایشان چگونه تنظیم شده تا بتوانند به کلاس آخر راه پیدا کنند، سطوح مختلفی از توضیحات به آنها ارائه شد. دانشجویانی که توضیحات شفاف تری به آنها داده شد عملا کمتر به الگوریتم اعتماد کردند. این باز هم نشان از یک شکاف دیجیتال می دهد: آگاهی از الگوریتم ها  به اطمینان بیشتر به سیستم منجر نمی شود.
اما شفافیت نوشدارو نیست. حتی وقتی که روند کلی یک الگوریتم توضیح داده می شود، جزئیات ممکن است همچنان بسیار پیچیده تر از آن باشد که کاربران بتوانند آن را درک کنند. شفافیت فقط به کاربرانی کمک خواهد کرد که به قدر کافی پیچیدگی دارند تا ظرافت ها و پیچیدگی های الگوریتم ها را درک کند.
برای مثال در سال 2014 بن برنانکی رئیس پیشین بانک مرکزی آمریکا در ابتدا فاینانس دوباره وثیقه ها توسط یک سیستم خودکا را انکار کرده بود. بیشتر افراد ثبت نام کننده  برای این نوع فاینانس دوباره وثیقه ها، درک نمی کنند که الگوریتم ها چگونه ارزش اعتباری آنها را تعیین می کنند.

 خارج شدن از اکوسیستم اطلاعاتی جدید
 در حالی که الگوریتم ها  تاثیر بسیار زیادی بر زندگی مردم دارند، تنها بخش بسیار کوچکی از مشارکت کنندگان آنقدر پییچیدگی دارند تا بتوانند به طور کامل سردربیاورند که الگوریتم ها چگونه بر زندگی شان تاثیر می گذارند.
آمار زیادی در این باره وجود ندارد که چه تعداد از مردم نسبت به الگوریتم ها شناخت دارند. مطالعات  شواهدی از نگرانی از الگوریتم ها را یافته اند که به عدم توازن عمیق قدرت بین پلتفرم هایی که الگوریتم ها را به کار می گیرند و کاربرانی که به آنها متکی هستند منجر می شود.
 یک مطالعه درمورد استفاده فیس بوک از الگوریتم ها دریافته است که وقتی مشارکت کنندگان از الگوریتم فیس بوک برای انتخاب فیدهای خبری آگاه شدند، حدود 83 درصد آنها در تلاش برای برخوردار شدن از امتیاز الگوریتم رفتار خود را تنظیم کردند، در حالی که حدود 10 درصد استفاده خود از فیس بوک را کاهش دادند.
گزارش نوامبر 2018 مرکز تحقیقاتی پیو نشان می داد که اکثریت غالبی از جامعه نگرانی های جدی درباره استفاده از الگوریتم ها برای کاربردهای ویژه دارند. این گزارش دریافته بود که 66 درصد مردم  فکر می کردند که  محاسبه امتیازات مالی شخصی توسط الگوریتم ها کار منصفانه ای نیست، در حالی که 57 درصد همین حرف را در مورد بررسی خودکار درخواست های شغلی زده بودند.
بخش کوچکی از افراد می توانند چگونگی استفاده الگوریتم ها از داده های شخصی شان را به نوعی کنترل کنند. برای مثال پلتفرم هو- مینتی به کاربرانش اجازه می دهد که با انتخاب یک گزینه، میزان گردآوری داده های شخصی خود توسط این پلتفرم را کنترل کنند. دایره المعارف آنلاین اوریپدیا به کاربران خود این امکان را می دهد تا در روند گردآوری و تنظیم داده ها یک ذینفع باشند، یعنی کاربران می توانند نحوه جمع آوری اطلاعات و عرضه آنها را نیز کنترل کنند.
با این حال اکثریت غالب پلتفرم ها این انعطاف پذیری را برای کاربران نهایی خود فراهم نمی کنند یا اینکه الگوریتم ها از ترجیحات آنها در تنظیم فیدهای خبری شان چگونه استفاده کنند حق انتخاب یا توضیحی به آنها نمی دهند. اگر هم گزینه هایی در این مورد وجود داشته باشد، ممکن است کاربران از آنها خبر نداشته باشند. حدود 74 درصد از کاربران فیس بوک در یک بررسی گفته اند که آنها اطلاع ندارند چگونه مختصات این پلتفرم را منطبق بر منافع شخصی خود تنظیم کنند.
به نظر من سواد دیجیتال جدید دیگر به معنای اطلاع از چگونگی استفاده از یک رایانه یا متصل بودن به اینترنت نیست، بلکه به معنای فهم و ارزیابی پیامدهای یک سبک زندگی همراه با شکلی از همیشه متصل بودن است.
این سبک زندگی تاثیر معناداری بر نحوه تعامل افراد با یکدیگر، بر توانایی آنها به توجه کردن به اطلاعات جدید و به پیچیدگی روندهای تصمیم گیری آنها دارد.
نگرانی فزاینده از الگوریتم ها را در تغییرات مشابهی در اقتصاد نیز می توان مشاهده کرد. گروه کوچکی از افراد در حال بهره مندی از مزایای خودکارسازی هستند، در حالی که کارگران زیادی در جایگاه خطرناکی قرار دارند.
خارج شدن از سازوکارهای الگوریتمی یک تجمل است و ممکن است روزی به نمادی از رفاه و دولتمندی تبدیل شود که تنها برای  گروه منتخب محدودی دردسترس قرار دارد. پس مسئله این است که چه آسیب های قابل سنجشی  برای کسانی وجود خواهد داشت که در طرف نادرست شکاف دیجیتال قرار دارند.
نویسنده: آنیانا سوزارلا (Anjana Susarla)  استاد سیستم های اطلاعات در دانشگاه ایالتی میشیگان
منبع: yon.ir/Eruqj 

انتهای پیام. 

 

کلیدواژه ها :هوش فیس بوک
منبع : فارس
website tracking