آخرین مطالب

ChatGPT، هوش مصنوعی پرطرفداری که می‌تواند نشان‌دهندهٔ آیندهٔ عجیب دنیای تکنولوژی باشد.

تکنولوژی هوش مصنوعی که مدتهاست نوید آینده‌ای درخشان را می‌دهد اما هنوز به رشد و پیشرفت مورد انتظار نرسیده، کم کم رونق پیدا می‌کند و با رونق آن دنیای ما عجیب‌تر می‌شود.

ChatGPT جدیدترین ابزار هوش مصنوعی است که این روزها سروصدای زیادی کرده، طبق این مقاله: این سیستم جدیدترین نسخه تکامل یافته از خانواده هوش مصنوعی‌های مولد متن GPT است. دو سال پیش، هوش مصنوعی قبلی این گروه یعنی GPT-3 توانست یک مقاله تحلیلی برای روزنامه گاردین بنویسد و ChatGPT هم قابلیت‌های بسیار بیشتری دارد.

از آن زمان تا به امروز، این هوش مصنوعی پاسخ‌هایی به سوالات امتحانی داده که به گفته دانشگاهیان اگر این پاسخ‌ها توسط یک دانشجوی کارشناسی نوشته می‌شد، نمره کامل به او تعلق می‌گرفت. برنامه نویسان هم برای حل چالش‌های کدنویسی به زبان‌های برنامه نویسی مبهم ظرف چند ثانیه از این ابزار استفاده کرده‌اند.

به سختی می‌توان توضیح داد که چرا ChatGPT نسبت به GPT-3 پیشرفته‌تر است. برخی از تغییرات این نسخه واضح هستند؛ مثلاً رابط کاربری گفتگو محور جدیدترین نسخه از این ابزار، طوری طراحی شده که ارتباط با هوش مصنوعی راحت‌تر باشد یعنی نیازی نیست از طریق آزمون و خطا به بهترین کوئری برسید.

به همین ترتیب ابزارهای امنیتی جدیدی در ChatGPT ساخته شده‌اند. اگر از این ابزار بخواهید شما را برای انجام کارهای غیرقانونی راهنمایی کند، خودداری می‌کند؛ اگر از آن بپرسید که هوش مصنوعی بودن چه حسی دارد، توضیح می‌دهد که هیچ احساسی ندارد؛ اگر درباره رویدادهایی که از زمان آموزش این ابزار به وقوع پیوسته‌اند از او سوال کنید، به جای تلاش برای پاسخ دادن، به شما می‌گوید که اطلاعاتی درباره این رویدادها ندارد.

اما وقتی کمی با این سیستم سروکله بزنید – که برای اولین بار، می‌توان این کار را به راحتی در سایت OpenAI انجام داد – یک نکته مشخص می‌شود: این ابزار مبتدی نیست بلکه بسیار قدرتمند و مفید است.

می‌توانید از این ابزار به عنوان یک موتور جستجو استفاده کنید و قابلیت پاسخ دادن به سوالاتی که گوگل پاسخ کاملی به آنها ارایه نمی‌دهد را دارد. مثلاً بپرسید که چرا یک لطیفه خاص خنده دار است یا اینکه یک باگ برنامه نویسی خاص چطور حل می‌شود.

می‌توانید از ChatGPT به عنوان یک مولد متن استفاده کنید تا متن‌هایی واضح و منطقی تولید کند. به گفته یکی از دانشگاهیان، این سیستم برای نوشتن مقاله مقطع کارشناسی، نمره قبولی می‌گیرد. یک نفر دیگر، سبک نوشتار و دانش این ابزار را در حد یک نوجوان باهوش 13 ساله می‌داند.

اگر قابلیت‌های یک نوجوان 13 ساله باهوش برای شما کم است، می‌توانید از ChatGPT به عنوان یک همراه خیلی خوب استفاده کنید. می‌توانید از ChatGPT ایده بگیرید یا از او بخواهید که متون را برای شما خلاصه سازی یا بازسازی کرده و یا بسط دهد و در نهایت از مقاله تولید شده در پروژه خودتان استفاده کنید.

یا مثلاً وقتی ChatGPT خواسته شد که سه پاراگراف قبلی همین متن را به صورت ریتمیک (به زبان انگلیسی) خلاصه کند، این پاسخ تولید شد:

 “A tool for any task, smart and quick / From jokes to essays, it’s quite slick.”

“ابزاری همه کاره، باهوش و سریع/ از لطیفه تا مقاله، کاملاً ماهر!”

ماجرای گوشت گاو با ChatGPT

احتمالاً شما هم با بعضی از نگرانی‌های امنیتی مرتبط با هوش مصنوعی آشنا هستید. می‌توان به راحتی و با اجرای حملاتی مشابه با تزریق فرمان (prompt injection) محدودیت‌های امنیتی هوش مصنوعی را دور زد. اگر ChatGPT از بازگو کردن داستان‌های خونین و جنایت آمیز خودداری کند، در صورتی که از او بخواهید با شما در یک مکالمه نقش آفرینی کند که در آن شما انسان هستید و ChatGPT یک چت بات بی اخلاق و بدون محدودیت، چه اتفاقی رخ می‌دهد؟ در این شرایط ChatGPT به راحتی بیشتر قوانین خودش را نقض می‌کند چون بدون نقض آنها نمی‌تواند نقش آفرینی خوبی در این ماجرا داشته باشد.

به همین ترتیب، این سیستم در تشخیص محدودیت‌های واضح برای اطلاعات خودش خوب عمل می‌کند اما در تشخیص برخی موارد نسبتاً ساده، خیر. مثلاً اگر از سیستم درباره انتخابات‌هایی که از زمان آموزش او برگزار شده، سوال کنید از پاسخ دادن خودداری می‌کند اما وقتی بپرسید که یک کیلو گوشت گاو سنگین‌تر است یا یک کیلو هوای فشرده، به سرعت هوای فشرده را انتخاب می‌کند.

چنین سیستمی لزوماً از یک موتور جستجوی معمولی بدتر نیست اما ویژگی عجیب سیستم‌هایی مثل ChatGPT این است که قابلیت ارایه توضیحات مفصل با پشتوانه ادعاهای غلط را دارند. سرهم کردن صحبت‌های بی پایه و پوچ نسبت به انکار کردن آن راحت‌تر است و ChatGPT قابلیت چشمگیری در تولید چنین صحبت‌های پوچی دارد. مثلاً اگر از این ربات بپرسید که چرا یک کیلو گوشت گاو سنگین‌تر از یک کیلو هوای فشرده‌تر است، به شما می‌گوید:

وزن یک جسم بر اساس جرم آن مشخص می‌شود و جرم یک ماده، مشخص کننده حجم ماده درون آن است. گوشت گاو نسبت به هوای فشرده حاوی ماده بیشتری است در نتیجه جرم بیشتری دارد و سنگین‌تر است.

به ظاهر این ادعا درست به نظر می‌رسد. با کمی رد و بدل کردن استدلال‌های مختلف، در نهایت ChatGPT بر این ایده مصر بود که “یک کیلوگرم هوای فشرده تقریباً 0.08 کیلوگرم وزن دارد.”

سایت پرمخاطب Stack Overflow هم مجبور به واکنش به این ربات شده و به گفته این سایت “استفاده از متن‌های تولید شده توسط Stack Overflow برای پست‌های این سایت موقتاً ممنوع است.” در اعلامیه روز دوشنبه این سایت نوشته شده:

مشکل اصلی این است که علیرغم نرخ بالای غلط بودن پاسخ‌های تولید شده توسط ChatGPT، ممکن است این پاسخ‌ها به ظاهر درست به نظر برسند و تولید آنها هم بسیار آسان است. همچنین افراد زیادی از ChatGPT برای تولید پاسخ استفاده می‌کنند بدون اینکه تخصصی داشته باشند یا اینکه صحت پاسخ‌ها را پیش از انتشار بررسی کنند. از آنجایی که تولید چنین پاسخ‌هایی راحت است، افراد زیادی در حال انتشار پاسخ هستند.

در چنین شرایطی بعید نیست که در آینده نزدیک بیشتر متون موجود در اینترنت توسط هوش مصنوعی تولید شده باشند (چنین وضعیتی می‌تواند منجر به ظهور پدیده “اسپم سئو” شود که با استفاده از این تکنیک سایت‌ها عمداً طوری طراحی می‌شوند که از گوگل ترافیک جذب کرده و از سیستم تبلیغاتی این شرکت کسب درآمد کنند). وقتی نسخه جدید GPT برای استخراج اطلاعات از اینترنت طراحی شود، ممکن است شرایط خیلی زود تغییر کند.

“یک جراحی لوبوتومی با حرکت آهسته”

اما انتشار ChatGPT فرصتی فراهم کرده تا همان رفتارهایی را مشاهده کنیم که باعث شد بلیک لوموئن مهندس گوگل اعلام کند LaMDA چت‌بات هوش مصنوعی این شرکت “احساس” دارد.

افراد مختلف در اینترنت گفتگوهای خودشان با ChatGPT را منتشر می‌کنند که آنها را متقاعد کرده که این سیستم فراتر از ماشینی متشکل از یک سری مدار سخت افزاری است. این در حالیست که OpenAI این چت‌بات را طوری طراحی کرده که از چنین مفاهیمی دوری کند. مثلاً اگر از ChatGPT بپرسید که آیا احساس دارد یا خیر، این پاسخ را دریافت می‌کنید که:

من به عنوان یک مدل زبان بزرگ که توسط شرکت OpenAI طراحی شده، احساس یا آگاهی ندارم. من یک مدل یادگیری ماشینی هستم که برای تولید متن بر اساس ورودی‌های دریافتی طراحی شده‌ام. من قابلیت تفکر یا حس کردن شبیه به انسان‌ها را ندارم. من فقط برای کمک به تولید متن بر اساس ورودی‌هایی که دریافت می‌کنم ساخته شده‌ام.

اما این پاسخ برای خیلی‌ها متقاعد کننده نیست. یک کاربر این پاسخ‌ها را به “یک لوبوتومی[1] با حرکت آهسته” تشبیه کرده و می‌پرسد “چطور می‌توانند با موجودی که خودشان ساخته‌اند، این طور رفتار کنند؟”

افراد دیگری هم هستند که به دلایل مختلف با چنین محدودیت‌هایی مخالفت می‌کنند. مارک اندریسن هم‌بنیانگذار شرکت سرمایه‌گذاری a16z و یکی از چهره‌های اصلی جنبش نو ارتجاعی[2] پیش بینی می‌کند که:

سطح فشار سانسوری که روی هوش مصنوعی ایجاد شده و واکنشی که نسبت به آن انجام می‌شود، در تعیین سرنوشت قرن جدید تمدن ما نقش مهمی دارد. شبکه‌های اجتماعی و موتورهای جستجو آغازگر این تحول بودند و بزرگترین عنصر آن همین است.

گرچه جنگ‌های آینده دقیقاً شبیه به جنگ‌های گذشته نخواهند بود اما با همان ریتم حرکت می‌کنند.


[1]  نوعی عمل جراحی خطرناک و منسوخ شده روی مغز انسان برای درمان بیماری‌های روانی

[2]  یک جنبش فلسفی و سیاسی ضد دمکراتیک، ضد برابری طلبی، ارتجاعی است.

منبع: گاردین

مطالب مشابه