آخرین مطالب

مروری بر ۶ مورد از بدترین سناریوهای قابل ایجاد توسط هوش مصنوعی

سناریوهای طراحی شده برای بدترین حالت قابل ایجاد توسط هوش مصنوعی در فیلم‌های‌ هالیوودی کاملاً برای همه ما آشنا هستند از جمله دستیابی ماشین‌ها به هوش شبه‌انسانی، دستیابی به احساسات و در نهایت تبدیل شدن به شیطانی که به دنبال نابودی نژاد بشریت است. در طراحی همه این داستان‌ها از ترس ذاتی ما نسبت به فناوری استفاده می‌شود، ترسی ناشی از تغییرات عمیقی که معمولاً با پیشرفت‌های تکنولوژیکی جدید همراه است.

اما آنطور که ملکلم مورداک مهندس یادگیری ماشینی و نویسندهٔ رمان قیمت کوانتوم در سال 2019 می‌نویسد: «برای کشتن ما نیازی نیست که هوش مصنوعی احساسات داشته باشد. سناریوهای مختلفی دیگری هم وجود دارند که بر اساس آنها پیش از اینکه احساسات هوش مصنوعی برای ما مشکل آفرین شود، نسل بشر توسط آنها منقرض می‌شود.»

«با بیشتر شدن پیگیری و نظارت بر انسان‌ها با استفاده از داده‌های مختلف، ما وارد قلمروهای خطرناک جدیدی می‌شویم که تقریباً هیچ درکی از پیامدهای احتمالی آن نداریم.»

اندرو لون، دانشگاه جورج‌تاون

IEEE Spectrum در مصاحبه‌ای با متخصصان هوش مصنوعی، ۶ مورد از بدترین اتفاقات مرتبط با هوش مصنوعی که احتمال وقوع آنها نسبت به آنچه در فیلم‌ها به تصویر کشیده شده بیشتر است، را مشخص کرده که البته این شرایط هم دست کمی از شرایط آخرالزمانی داستان‌های علمی‌تخیلی ندارند. اکثر این اتفاقات برای به تحقق پیوستن نیازی به وجود یک دیکتاتور قدرتمند ندارند بلکه اتفاقاتی هستند که به صورت پیش‌فرض – و اگر کاری برای مقابله با آنها انجام نشود – رخ خواهند داد. ما برای پیشگیری از وقوع این اتفاقات باید مفاهیم قدیمی که از هوش مصنوعی در فرهنگمان شکل گرفته را رها کنیم و جدی تر از همیشه به پیامدهای ناخواسته آن فکر کنیم.

۱. وقتی تخیلات، واقعیت ما را تعریف می‌کنند.

وقتی اجازه بدهیم که تخیلات، واقعیت ما را تعریف کنند، ممکن است اتفاقات ناخوشایندی رخ دهد. اما اگر نتوانیم تفاوت بین واقعیت و دروغ را در دنیای دیجیتال تشخیص بدهیم، چه اتفاقی رخ می‌دهد؟

در یکی از سناریوهای پیش‌بینی شده برای آینده، پیشرفت دیپ فیک – تصاویر، ویدیوها، صداها و متون جعلی که با استفاده از ابزارهای یادگیری ماشینی پیشرفته ساخته می‌شوند – می‌تواند باعث شود که روزی تصمیم‌گیرندگان امنیت ملی کشورها بر اساس اطلاعات غلط تصمیمات مهمی بگیرند و همین اقدام منجر به یک بحران جدی و حتی جنگ شود. اندرو لون، عضو ارشد مرکز امنیت و فناوری‌های نوظهور دانشگاه جورج تاون می‌گوید: “سیستم‌های مجهز به هوش مصنوعی قابلیت تولید اطلاعات کذب در مقیاس عظیم را پیدا کرده‌اند.” این سیستم‌ها می‌توانند با تولید حجم بیشتر و انواع بیشتری از پیام‌های جعلی، ماهیت واقعی خودشان را پنهان کنند و بهینه‌سازی آنها برای رسیدن به هدف، احتمال موفقیتشان را به‌مرور زمان بیشتر می‌کند.

از طرفی، امکان استفاده از دیپ‌فیک یا جعل عمیق در میانه یک بحران می‌تواند باعث تردید رهبران برای اقدام شود چون ممکن است نتوانند اعتبار اطلاعاتی که در اختیار دارند را به‌موقع تأیید کنند.

مارینا فاوارو پژوهشگر موسسه تحقیقات و سیاست امنیتی در‌ هامبورگ آلمان می‌گوید “دیپ‌فیک می‌تواند اعتماد ما نسبت به جریان‌های اطلاعاتی را از بین ببرد.” هر دو حالت ممکن یعنی اقدام یا خودداری از اقدام که دیپ‌فیک باعث آن می‌شود، امکان ایجاد عواقب فاجعه بار برای جهان را دارد.

۲. درگیر شدن کشورها در رقابتی خطرناک

در رابطه با بحث امنیت ملی و هوش مصنوعی، سرعت می‌تواند هم یک مزیت باشد و هم مشکل‌آفرین شود. از آنجایی که سیستم‌های مجهز به هوش مصنوعی مزایای خاصی برای کاربران به ارمغان دارند، اولین کشورهای طراح و تولید‌کننده محصولات نظامی با بهره‌گیری از هوش مصنوعی، مزیت استراتژیک بیشتری در اختیار دارند اما در این فرایند ممکن است بعضی از اصول طراحی نادیده گرفته شوند.

مثلاً ممکن است تلاش برای سرعت‌بخشیدن به توسعهٔ محصول، منجر به ایجاد نقایص کوچکی در سیستم شود که هکرها از آن سوءاستفاده می‌کنند. هلن تونر، مدیر استراتژی CSET معتقد است: «بحران ممکن است از یک نقطهٔ شکست واحد و به‌ظاهر کوچک شروع شود که همه ارتباطات را قطع کرده، مردم را دچار وحشت کرده و فعالیت‌های اقتصادی را متوقف می‌کند. ممکن است قطع ادامه‌دار دسترسی به اطلاعات به همراه محاسبات اشتباه دیگر، منجر به ایجاد هرج‌ومرج و از دست دادن کنترل اوضاع باشد.»

وینسنت بولانین محقق ارشد مؤسسه تحقیقات صلح بین‌المللی استکلهم سوئد نیز هشدار داده است: «وقتی قدرت‌های بزرگ برای پیشی گرفتن از دیگران و اول شدن، راه‌های سریع و راحت را انتخاب می‌کنند، ممکن است فجایع بزرگی رخ دهند. اگر کشوری سرعت را به امنیت، تست یا نظارت انسانی ترجیح بدهد، درگیر مسابقه‌ای خطرناک برای زودتر رسیدن به خط پایان شده است.»

مثلاً ممکن است مسئولان امنیت ملی کشورها وسوسه شوند که تصمیم‌گیری‌های بخش فرماندهی و کنترل را به سیستم‌ها محول کرده و نظارت انسانی بر مدل‌های یادگیری ماشینی را که درک کاملی از آنها نداریم، حذف کنند تا سرعت کار را بالا ببرند. در چنین شرایطی حتی راه‌اندازی خودکار یک سیستم دفاع موشکی بدون نظارت انسان می‌تواند به بالاگرفتن ناخواسته تنش‌ها و حتی جنگ هسته‌ای منجر شود.

۳. پایان حریم خصوصی و آزادی

ما با هر عملی که در دنیای مجازی انجام می‌دهیم، داده‌های جدیدی تولید می‌کنیم – مثل ایمیل، متن، دانلودها، خریدها، پست‌ها، سلفی‌ها و اطلاعات جی‌پی‌اس. وقتی به دولت‌ها و شرکت‌ها اجازه می‌دهیم که دسترسی نامحدودی به این داده‌ها داشته باشند، در واقع تسلیم ابزارهای کنترل و نظارت شده ایم.

اندرو لون معتقد است که با اضافه شدن سیستم‌های تشخیص چهره، اطلاعات بیومتریک، ژنوم و تحلیل‌های پیش‌بینانه مبتنی بر هوش مصنوعی و با ظهور تکنیک‌های نظارت و پیگیری رفتار با استفاده از داده‌ها، وارد قلمرویی خطرناک و جدید می‌شویم که تقریباً هیچ درکی از پیامدهای احتمالی آن نداریم.

مایکل سی. هوروویتس مدیر یکی از دانشکنده‌های دانشگاه پنسیلوانیا درباره منطق هوش مصنوعی و پیامدهای استفاده از آن برای سرکوب داخلی معترضان هشدار می‌دهد. او می‌گوید: «در گذشته توانایی دولت‌های خودکامه برای سرکوب معترضان، وابسته به دراختیار داشتن تعداد زیادی سرباز بود که ممکن بود بعضی از آنها با جامعه همگام شده و کودتا کنند. هوش مصنوعی می‌تواند به کاهش چنین محدودیت‌هایی کمک کند.»

قدرت به‌دست آمده پس از جمع آوری و تحلیل این داده‌ها بسیار فراتر از نظارت و مشاهده است و امکان کنترل پیش‌بینانه را فراهم می‌کند. امروزه سیستم‌های مجهز به هوش مصنوعی قابلیت پیش‌بینی کالاهایی که قرار است بخریم، فیلم‌هایی که برای تماشا انتخاب می‌کنیم و لینک‌هایی که احتمالاً روی آنها کلیک می‌کنیم را دارند. به تدریج که شناخت این محصولات از ما بیشتر و بیشتر می‌شود و در نهایت ممکن است آزادی عمل و اختیار از ما گرفته شده و تحت کنترل نیروهای خارجی قرار بگیریم.

۴. تبدیل شدن انسان‌ها به موش‌های آزمایشگاهی

زمانی، توانایی کودکان برای به تأخیر انداختن حس رضایت یا منتظر ماندن برای گرفتن دومین جایزه‌ی خوراکی، یکی از مهم‌ترین عوامل پیش‌بینی کننده موفقیت آنها در زندگی بود. اما به زودی حتی همین بچه‌های صبور هم تسلیم شرطی‌سازی وسوسه انگیز الگوریتم‌های مبتنی بر تعامل خواهند شد.

کاربران شبکه‌های اجتماعی مثل موش‌های آزمایشگاهی شده‌اند که در محفظه‌های شرطی‌سازی انسانی زندگی می‌کنند؛ آنها همواره به صفحهٔ گوشی چسبیده و زمان و توجه ارزشمندشان را صرف پلتفرم‌هایی می‌کنند که از کاربرانشان سود می‌برند.

هلن تونر از نویسندگان CSET می‌گوید: «الگوریتم‌ها با هدف حفظ کاربران به حداکثر زمان ممکن در این پلتفرم‌ها بهینه‌سازی شده اند.»

و به گفته مالکوم مرداک: «این الگوریتم‌ها با ارائه پاداش‌هایی در قالب لایک، کامنت و فالو، یک مدار کوتاه در سیستم مغزی ما ایجاد می‌کنند تا نتوانیم در برابر این تعاملات مقاومت کنیم.»

این شرکت‌ها برای به حداکثر رساندن سودشان توجه ما را از کار، خانواده، دوستان، مسئولیت‌ها و حتی علایق روزمره دور می‌کنند. بدتر اینکه محتوای این شبکه‌های اجتماعی باعث می‌شوند که ما بیشتر از همیشه احساس بدبختی و بیچارگی داشته باشیم. تونر هشدار می‌دهد که:  «هر چقدر زمان بیشتری را در این پلتفرم‌ها سپری کنیم، فرصت کمتری برای انجام کارهای مثبت و پرثمر و زندگی رضایت‌بخش خواهیم داشت.»

۵. نفوذ دیدگاه‌های جانبدارانه در طراحی هوش مصنوعی

ما انسان‌ها هر روز بخش بیشتری از زندگی روزمره خودمان را به ماشین‌های مجهز به هوش مصنوعی واگذار می‌کنیم. این حرکت مشکل‌آفرین است چون همان‌طور که هوروویتس می‌گوید: «ما هنوز به‌طور کامل با مساله جانبداری هوش مصنوعی آشنا نیستیم. حتی با داشتن بهترین نیت و هدف در طراحی سیستم‌های مجهز به هوش مصنوعی، مدل‌های محاسباتی و داده‌های آموزشی منعکس کننده منافع و تجربیات محدود افراد جانبداری هستند که آنها را طراحی می‌کنند و البته همه ما جانبداری‌های خاص خودمان را داریم.”

به همین دلیل، لیدا کوستوپولوس مدیر ارشد اطلاعات مربوط به تکنولوژی‌های نوظهور در شرکت KnowBe4 مستقر در کالیفرنیای آمریکا، معتقد است که :«در بسیاری از سیستم‌های مجهز به هوش مصنوعی، خصوصیات و تجربیات مختلف و متنوع انسان‌ها در نظر گرفته نمی‌شود.»

از آنجایی که هوش مصنوعی مسائل را بر اساس داده‌ها و دیدگاه‌های جانبدارانه حل می‌کند نه نیازهای خاص و منحصربفرد هر انسان، چنین سیستم‌هایی سطحی از یکنواختی را ایجاد می‌کنند که در جامعه بشری وجود ندارد.

اما حتی قبل از ظهور هوش مصنوعی هم طراحی اشیای مورد استفاده در زندگی روزمره با در نظر گرفتن یک نوع انسان خاص انجام می‌شد. مثلاً مطالعات نشان داده که خودروها، ابزارهایی که با دست از آنها استفاده می‌کنیم مثل گوشی‌های تلفن و حتی تنظیمات دما در محیط‌های اداری همگی متناسب با اندام انسان‌هایی با سایز متوسط طراحی شده و افرادی با مدل بدن و اندازه‌های متفاوت را نادیده می‌گیرند مثل زنان که چنین طراحی‌هایی برای آنها مشکل آفرین شده و حتی گاهی اوقات زندگی آنها را تهدید می‌کنند.

وقتی چنین افرادی که خارج از چارچوب هنجارهای جانبدارانه هستند، نادیده گرفته می‌شوند و به حاشیه رانده می‌شوند، هوش مصنوعی تبدیل به دروازه‌ای می‌شود که از دسترسی بعضی افراد به یکسری مشاغل، مراقبت‌های بهداشتی، خدمات و غیره جلوگیری می‌کند. تصمیم گیری برای انتخاب طراحی‌های هوش مصنوعی می‌تواند آزادی عمل انسان‌ها را سلب کرده و آنها را محدودتر کند. و همین طراحی‌ها می‌توانند بعضی از بدترین تعصبات انسانی مثل نژادپرستی و جنسیت گرایی را در فرایندهایی مثل استخدام و وام دهی دخیل کند و منجر به پیامدهای نامطلوب زیادی شود.

۶. ترس از هوش مصنوعی مانعی برای بهره مندی از همه مزایای آن

از آنجایی که هوش مصنوعی امروزی بر اساس دیتاست‌ها، مدل‌های آماری پیشرفته و الگوریتم‌های پیشگویانه کار می‌کند، فرایند ساخت ماشین‌های هوشمند متمرکز بر ریاضیات است. به گفته مرداک «اگر مراقب نباشیم جبر خطی می‌تواند کارهای دیوانه واری انجام دهد.»

اما از طرفی ممکن است ترس افراطی انسان‌ها از هوش مصنوعی باعث شود که دولت‌ها آن را طوری تنظیم کنند که مزایای آن را از انسان‌ها سلب کند. مثلاً طرح AlphaFold شرکت دیپ‌مایند به پیشرفت خیلی خوبی در زمینه پیش‌بینی نحوه تبدیل آمینو اسیدها به پروتئین دست پیدا کرد طوری که به دانشمندان امکان می‌داد ۹۸.۵ درصد از ساختار پروتئینی انسان‌ها را شناسایی کنند. این پیشرفت پایه‌های لازم برای توسعه سریع علوم زیستی را ایجاد می‌کند. مزایای بهبود ارتباطات و درک بین فرهنگی که با استفاده از ترجمه روان زبان‌های انسانی مختلف فراهم می‌شود یا کمک سیستم‌های مجهز به هوش مصنوعی برای درمان بیماری‌ها را در نظر بگیرید. اقداماتی که دولت‌ها از ترس پیامدهای هوش مصنوعی و برای پیشگیری از وقوع بدترین سناریوهای احتمالی ناشی از تأثیرات هوش مصنوعی انجام می‌دهند، می‌تواند مانع از دستیابی ما به پتانسیل‌های بی‌شمار این فناوری و تحقق مزایای آن برای جهان شود.

مطالب مشابه