آخرین مطالب

آیا با پیش‌بینی آیندهٔ افراد توسط هوش مصنوعی، باز هم شما آزاد خواهید بود؟

همچنان که این کلمات را مرور می‌کنید، احتمالاً ده‌ها الگوریتم در حال انجام پیش‌بینی‌هایی دربارهٔ شما هستند. برای مثال، ممکن است یک الگوریتم تصمیم گرفته باشد که این مقاله در معرض دید قرار بگیرد، چون پیش‌بینی کرده که شما آن را می‌خوانید (یعنی به مطالعه چنین مطالبی علاقمند هستید). پیش‌بینی‌های الگوریتمی قابلیت تشخیص اینکه شما مثلاً به دنبال یک وام، کار، بیمه یا آپارتمان خاص هستید را هم دارند.

این تحلیل‌های پیشگویانه هر روز جنبه‌های بیشتری از زندگی ما را در بر می‌گیرند. این در حالیست که هیچکس از شما برای انجام چنین پیش‌بینی‌هایی اجازه نگرفته است. هیچ مؤسسه دولتی بر آنها نظارت ندارد. هیچکس به شما درباره چنین پیشگویی‌هایی که می‌توانند سرنوشت ساز باشند، اطلاع رسانی نمی‌کند. بدتر اینکه با مروری بر تحقیقات دانشگاهی در زمینه جنبه اخلاقی این پیش‌بینی‌ها متوجه می‌شویم که حجم مطالعات صورت گرفته در این حوزه بسیار محدود است. ما به عنوان یک جامعه پیامدهای اخلاقی پیش‌بینی دربارهٔ انسان‌ها را – موجوداتی که قرار بوده با آزادی و اختیار عمل عجین شوند – به‌طور کامل در نظر نگرفته‌ایم.

سرپیچی از احتمالات جزء خصیصه‌های انسان است. بزرگترین قهرمانان بشریت افرادی هستند که با احتمالات مبارزه کرده‌اند، برای مثال، آبراهام لینکولن، مهاتما گاندی، ماری کوری، هلن کلر، رزا پارکس، نلسون ماندلا و غیره. همه این افراد بسیار فراتر از حد تصور و انتظار به‌موفقیت رسیدند. هر معملی دانش‌آموزانی را می‌شناسد که با شرایطشان جنگیده‌اند. برای ارتقای خط مبنای زندگی همه، به‌دنبال جامعه‌ای هستیم که به ما امکان مقابله با احتمالات را داده و ما را به انجام این کار تشویق کند. با این حال هر چقدر بیشتر از هوش مصنوعی برای دسته بندی افراد، پیش‌بینی آینده آنها و برخورد با آنها بر اساس همین اطلاعات استفاده کنیم، اختیار اخلاقی آن‌ها را محدودتر کرده‌ایم در نتیجه آنها را در معرض خطراتی ناشناخته قرار می‌دهیم.

انسان‌ها مدت‌ها پیش از غیبگوی نیایشگاه دلفی، از پیش‌بینی استفاده می‌کردند. جنگ‌ها بر اساس همین پیش‌بینی‌ها انجام می‌شدند. در دهه‌های اخیر، از پیش‌بینی برای انجام کارهایی مثل تنظیم مبلغ بیمه افراد استفاده شده است. این پیش‌بینی‌ها بیشتر مربوط به گروه‌های وسیعی از افراد بودند – مثلاً اینکه از بین صدهزار نفر، چند نفر با ماشین‌شان تصادف می‌کنند. بعضی از این افراد، بادقت‌تر و خوش‌شانس‌تر از دیگران هستند اما با این فرض که ادغام ریسک امکان می‌دهد خسارت‌های زیاد افراد کم‌دقت و کم‌شانس، با خسارت نسبتاً کم افراد دقیق‌تر و خوش شانس‌تر جبران شود، شرایط برای کل افراد تقریباً یکسان در نظر گرفته می‌شود (به غیر از دسته‌بندی‌های کلی مثل گروه سنی افراد). هر چقدر این منبع بزرگتر باشد، شرایط آن قابل پیش‌بینی‌تر و حق بیمه افراد پایدارتر و منسجم‌تر است.

امروزه، پیش‌بینی بیشتر توسط الگوریتم‌های یادگیری ماشینی انجام می‌شود که از آمار برای پر کردن جاهای خالی ناشناخته استفاده می‌کنند. الگوریتم‌های متنی از پایگاه داده‌های عظیم زبانی برای پیش‌بینی محتمل ترین کلمه پایان دهنده یک رشته کلمه استفاده می‌کنند. الگوریتم‌های بازی از داده‌های بازی‌های قبلی برای پیش‌بینی بهترین حرکت ممکن بعدی استفاده می‌کنند و الگوریتم‌هایی که به رفتارهای انسانی اعمال می‌شوند، از تاریخچه گذشته برای تفسیر و پیش‌بینی آینده استفاده می‌کنند از جمله اینکه: قصد داریم چه چیزی بخریم؟ آیا به دنبال تغییر شغل هستیم؟ آیا ممکن است دچار بیماری شویم؟ آیا ممکن است تصادف کنیم یا مرتکب جرم شویم؟ در چنین مدلی، بیمه به دنبال ادغام ریسک مجموعه‌ای بزرگ از افراد نیست بلکه پیش‌بینی‌ها شخصی‌تر شده و شما روزبه‌روز بیشتر مسیرتان را براساس امتیاز ریسک شخصی خودتان باز می‌کنید – که این موضوع منجر به ایجاد یک مجموعه نگرانی اخلاقی جدید می‌شود.

یکی از خصوصیات مهم پیش‌بینی‌ها این است که توصیف‌کننده واقعیت نیستند. پیش‌بینی، مربوط به آینده است نه حال حاضر و آینده چیزیست که هنوز رنگ واقعیت به خود نگرفته است. هر پیش‌بینی یک حدس است و انواع دیدگاه‌های شخصی و جانبداری درباره ریسک و ارزش‌ها به پیش‌بینی گره خورده‌اند. ممکن است بعضی از پیش‌بینی‌ها کمابیش درست باشند، اما رابطه بین احتمال و واقعیت از آنچه عده‌ای تصور می‌کنند بسیار ضعیف‌تر و از نظر اخلاقی مشکل‌آفرین‌تر است.

این در حالیست که امروزه مؤسسات سعی می‌کنند طوری با پیش‌بینی‌ها رفتار کنند که انگار مدلی از واقعیت عینی هستند و حتی وقتی که پیش‌بینی‌های هوش مصنوعی صرفاً پیشگویانه هستند، در عمل به عنوان پیش‌بینی‌هایی قطعی تفسیر می‌شوند – که بخشی از این مسئله ناشی از ضعف انسان‌ها در درک احتمالات و بخشی دیگر به این دلیل است که انگیزه‌های مربوط به اجتناب از ریسک، منجر به بها دادن هر چه بیشتر به پیش‌بینی می‌شود (مثلاً اگر پیش‌بینی شود که به احتمال ۷۵ درصد عملکرد یک شخص به عنوان کارمند بد خواهد بود، شرکت‌ها مایل به خطر‌کردن برای استخدام چنین فردی نیستند، به‌خصوص وقتی داوطلبانی با نمره ریسک کمتر داشته باشند).

شیوه استفاده از پیش‌بینی توسط ما منجر به ایجاد مشکلاتی اخلاقی می‌شود که ریشه در یکی از قدیمی ترین بحث‌های فلسلفه دارد، این‌که وقتی یک خدای دانای کل وجود دارد، آیا می‌توان گفت که ما انسان‌ها کاملاً آزاد هستیم؟ اگر خداوند از قبل در جریان هست که در آینده چه اتفاقی رخ می‌دهد، این یعنی آنچه که قرار است اتفاق بیفتد، از پیش تعیین شده است – در غیر اینصورت امکان دانستن آن وجود نداشت. این یعنی حس آزادی ما چیزی به‌جز یک حس نیست. به این دیدگاه جبرگرایی الهی گفته می‌شود.

به غیر از پرسشی که درباره خداوند مطرح شد، آنچه که در این استدلال نگران کننده است این است که اگر انجام پیش‌بینی دقیق ممکن باشد (صرف‌نظر از اینکه چه شخصی این پیش‌بینی‌ها را انجام می‌دهد)، در این صورت آنچه که پیش‌بینی شده، از قبل مقدر شده است. در عصر هوش مصنوعی این موضوع برجسته‌تر شده است چون تحلیل‌های پیشگویانه دائماً در حال هدف گیری افراد هستند.

یک مشکل اخلاقی مهم این است که با پیش‌بینی کردن رفتار انسان‌ها، درست همانطور که درباره آب و هوا پیش‌بینی می‌کنیم، با انسان‌ها مثل اشیا رفتار می‌کنیم. در برخورد با انسان‌ها، اختیار اخلاقی و توانایی آنها برای تغییر خودشان و شرایطشان را در نظر می‌گیریم. اگر تصمیم بگیریم که پیش از رسیدن آینده شخصی، از آینده او باخبر شویم و بر همین اساس با او رفتار کنیم، در این صورت فرصت اقدام آزادانه و مقابله با احتمال تحقق آن پیش‌بینی را از وی گرفته‌ایم.

موضوع اخلاقی بعدی در رابطه با پیش‌بینی رفتار انسان این است که با برخورد کردن با انسان‌ها مثل یک شی، پیشگویی‌هایی انجام می‌دهیم که خودبه‌خود محقق می‌شوند. پیش‌بینی‌ها به ندرت خنثی و بی‌طرف هستند. در اغلب مواقع، پیش‌بینی کردن یک عمل (که ادعا می‌شود پیش‌بینی صرفاً نظاره‌گر آن است) در واقعیت تداخل ایجاد می‌کند. مثلاً وقتی فیسبوک پیش‌بینی می‌کند که پستی پرطرفدار خواهد شد، آن را برای کاربران بیشتری نمایش می‌دهد در نتیجه به فراگیری آن کمک می‌کند. یا مثال الگوریتمی که پیش‌بینی می‌کند شما کارمند خوبی نیستید را در نظر بگیرید. ممکن است ناتوانی و ناکامی شما برای دستیابی به یک شغل، ناشی از دقت الگوریتم نباشد، بلکه ناشی از این موضوع باشد که خود الگوریتم به سازمان‌ها پیشنهاد داده شما را استخدام نکنند و آن‌ها هم این پیش‌بینی را پذیرفته‌اند. قرار گرفتن در لیست سیاه یک الگوریتم می‌تواند گزینه‌های شما را در زندگی به‌شدت محدود کند.

فلاسفه‌ای که در گذشته نگران جبرگرایی الهی بودند، این نگرانی را مطرح می‌کردند که اگر خداوند دانای مطلق و قادر است، در این صورت سخت است که او را برای بدی‌ها و شرارت‌ها سرزنش نکنیم. دیوید هیوم می‌نویسد: «تطبیق دادن احتمال اقدامات انسان با از پیش مشخص بودن اقدامات انسان‌ها و در عین تبرئه کردن خدا از اتهام از پیش نوشتن گناهان، امری بسیار فراتر از قدرت فلسفه است.»

در رابطه با هوش مصنوعی، اگر تحلیل‌های پیش بینانه تا حدودی در ایجاد واقعیتی که ادعا می‌کنند آن را پیش‌بینی کرده‌اند نقش داشته باشند، در این صورت تا حدودی در شکل گیری الگوها و گرایشات منفی که در عصر دیجیتال شاهد آن هستیم، از جمله نابرابری، دوگانگی، اطلاعات غلط و آسیب رسیدن به کودکان و نوجوانان مسئولیت دارند. در نهایت، استفاده گسترده از تحلیل‌های پیشگویانه، فرصت ما برای داشتن آینده‌ای آزاد که بتوانیم در آن یک تحول و تفاوت چشمگیر ایجاد کنیم را کاهش می‌دهد و این مسئله بر جامعه انسانی تأثیر مخربی دارد.

ما انسان‌ها در سراسر تاریخ روش‌هایی برای زندگی ابداع کرده ایم که جبرگرایی را به چالش می‌کشند. ما برای آموزش فرزندانمان سرمایه گذاری کرده ایم به این امید که این سرمایه گذاری‌ها به آنها برای داشتن زندگی بهتر کمک می‌کنند. ما تلاش کردیم رفتار و عاداتمان را تغییر دهیم به این امید که سلامت‌تر زندگی کنیم. ما با تصدیق این مسئله که افراد می‌توانستند تصمیمات بدتری بگیرند، رفتارهای خوب را تشویق کرده ایم تا بیشتر تکرار شوند. ما افراد خاطی را حداقل تا حدودی مجارات می‌کنیم تا انگیزه آنها و دیگران برای نقض هنجارهای اجتماعی را از بین ببریم و افرادی که تصور می‌کنیم می‌توانستند بهتر عمل کنند را سرزنش می‌کنیم. ما سعی کردیم ساختار جامعه را بر اساس شایستگی‌ها شکل دهیم.

اگر باور داشتیم سرنوشت انسان‌ها از پیش مقدر شده، همه این اقدامات اجتماعی برای تغییر شیوه رفتار و زندگی افراد بی معنا بودند. در این شرایط سرزنش و تمجید کاملاً نادرست بود. دنیایی بدون هرگونه امتیاز، جریمه، انگیزه یا تنبیه را تصور کنید؛ دنیایی که در آن هیچ تلاشی برای تغییر دادن آینده وجود ندارد؛ دنیایی که در آن انسان‌ها در تسلیم شدگی مطلق به یک پیشگویی عمل می‌کنند. چنین شرایطی تقریباً غیرقابل تصور است. اگر امکان پیش‌بینی دقیق آینده هر شرکتی وجود داشت، بازارهای پیش‌بینی که امروزه شاهد آنها هستیم بلافاصله دچار فروپاشی می‌شدند و با فروپاشی آنها اقتصاد ما هم نابود می‌شد. گرچه رخ دادن چنین شرایطی بعید است، اما قطعاً مایع نیستیم که در ادامه مسیر به چنین شرایطی نزدیک‌تر شویم.

بین پیش‌بینی رفتار انسان و باور به آزادی عمل انسان‌ها در زندگی روزمره، یک تنش غیرقابل حل وجود دارد. وجود میزان مناسبی از “عدم قطعیت” درباره آینده به ما انگیزه می‌دهد که بهتر عمل کنیم و احتمالات مختلف را زنده نگه می‌دارد. میل به جمع آوری همه داده‌های ممکن درباره انسان‌ها و ترسیم نقشه آینده آنها با دیدگاهی که در آن انسان‌ها مالک و صاحب اختیار زندگی خودشان هستند، در تضاد است.

ما باید بین برخورد با انسان‌ها به عنوان ماشین‌های مکانیکی که می‌توان و باید آینده شان را پیش‌بینی کرد (که در این حالت اعتقاد به شایسته سالاری معنایی ندارد) یا برخورد با آنها به عنوان موجوداتی دیگر (که در این حالت هدف گرفتن آنها برای انجام پیش‌بینی‌های فردی اقدامی ناشایست است) یک گزینه را انتخاب کنیم. ما هرگز یک تراکتور یا هر ماشین دیگر را محکوم به زندان نمی‌کنیم. اگر با انسان‌ها مثل یک تراکتور رفتار کنیم، در این صورت نباید آنها را زندانی کنیم. از طرفی اگر انسان‌ها با ماشین‌ها متفاوت هستند و ما بخواهیم که همچنان به تمجید و سرزنش ادامه دهیم، در این صورت نباید با پیش‌بینی کردن اقداماتشان به نحوی که انگار نقشی در آن ندارند، با آنها مثل اشیاء برخورد کنیم.

پیش‌بینی‌ها بی ضرر نیستند. استفاده وسیع از تحلیل‌های پیش بینانه می‌تواند تفکر و دیدگاه انسان‌ها نسبت به خودشان را تغییر دهد. اعتقاد داشتن به آزادی عمل ارزشمند است. مطالعاتی که در حوزه روانشناسی انجام شده‌اند، نشان داده‌اند که از بین بردن اعتقاد افراد به آزادی عمل احتمال تقلب، خشونت و سرپیچی آنها را افزایش داده و احتمال انجام رفتارهایی مفید و احساسات مثبت مثل قدردانی و اصالت را کاهش می‌دهد. هر چقدر بیشتر از تحلیل‌های پیش بینانه بر روی افراد استفاده کنیم، بیشتر و بیشتر اقدامات آنها را تبدیل به پیامدها و عوارض محیط و شرایط می‌کنیم؛ در چنین شرایطی انسان‌ها در برخورد با سختی‌ها احساس قدرت و اراده کمتری خواهند داشت. هر چقدر فرصت انسان‌ها برای مقابله با احتمال و شانس را کمتر کنیم، آنها و جامعه را بیشتر به وضع موجود محدود می‌کنیم.

با تصمیم گیری درباره سرنوشت انسان‌ها بر اساس الگوریتم‌های پیشگویانه، انسان‌ها را به ربات تبدیل می‌کنیم. خلاقیت انسان‌ها برای به چالش کشیدن احتمالات، به نجات ملت‌ها کمک کرده است. روزولت و چرچیل را در جنگ جهانی دوم در نظر بگیرید. این دو در زندگی شخصی و حرفه‌ای خودشان بر مشکلات غیرقابل وصفی غلبه کرده‌اند و جهان را از گرفتار شدن در چنگ یک حکومت مطلق دیکتاتور نجات داده‌اند. توانایی مقابله با احتمالات، یکی از مهم ترین موهبت‌هایی است که به انسان اهدا شده و ما با این اقدامات پرمخاطره آن را تضعیف می‌کنیم.

منبع: وایرد

مطالب مشابه