آیا ChatGPT امن است؟
آنچه باید قبل از شروع چت با ربات هوش مصنوعی بدانید
اواخر سال ۲۰۲۲ شرکت OpenAI در اقدامی از ربات هوش مصنوعی ChatGPT با قابلیتهایی که تقریباً باورنکردنی به نظر میرسید، دنیای فناوری را تغییر داد و حالا نگرانیهایی در رابطه با امنیت این ربات وجود دارد.
برای سالها، فناوری هوش مصنوعی با نسخههای اولیه که میتوانستند متنهای نامفهوم یا عکسهای تقریبا منسجم تولید کنند، توسعه یافته بود. همه چیز جالب به نظر میرسید، اما این بهمعنای مفید و کاربردی بودن صرف نبود. در مقایسه، ChatGPT و بعداً Bing مایکروسافت، میتوانستند به انگلیسی صحبت کنند و قادر به تحقیق و جستجوی اطلاعات به روشهایی بودند که قبلا هرگز ندیده بودیم. این موضوع یک جهش بزرگ رو به جلو بود و جهان را تغییر داد. تنها در عرض دو ماه، تعداد کاربران ChatGPT به صد میلیون نفر در سراسر دنیا رسید و از آن زمان، دنیا با وجود هوش مصنوعی تغییرات شگرفی را بهخود دیده است.
اما آیا هوش مصنوعی جایگزین ما در حرفه و شغلمان خواهد شد؟ آیا هوش مصنوعی به «ماتریکس» یا «نابودگر» تبدیل میشود؟ و آیا میتوانیم بگوییم که این هوش میتوان جای انسان را بگیرد؟
اما همانطور که پیشبینی میشود برخی از بدترین ترسها در مورد هوش مصنوعی هنوز محقق نشده که البته این موضوع بهمعنا امن بودن ChatGPT یا رقبای آن نیست. نگرانیهای واقع بینانه زیادی دربارهی فناوری آنها وجود دارد که به مدلهای زبان بزرگ (LLM) معروف است، از حریم خصوصی دادهها تا انتشار اطلاعات غلط خطرناک و حتی سوءاستفاده از هوش مصنوعی توسط عوامل مخرب. بنابراین، در اینجا خطرات واقعی چت رباتهای هوش مصنوعی مانند ChatGPT وجود دارد، بر این اساس میدانید هنگام استفاده از آنها چه چیزهایی را درباره خودتان به آنها میآموزید.
ChatGPT چیست و چگونه کار میکند؟
قبل از اینکه بتوانیم خطرات و نگرانیهای ایمنی ناشی از ChatGPT و دیگر چتباتهای مشابه را درک کنیم، باید نحوه عملکرد آنها در سطح پایه را درک کنیم. ChatGPT نوعی هوش مصنوعی است که LLM نامیده میشود، به این معنی که با حجم عظیمی از اطلاعات، از کتاب گرفته تا مقالات دانشگاهی، محتوای اینترنتی و هر چیز دیگری آموزش دیده است. این منابع را تجزیه و تحلیل میکند و زمانیکه شما یک اعلان را تایپ میکنید، پاسخی بر اساس احتمالات آماری بهدست آمده از دادههای آموزشی خود بهشما میدهد.
برای مثال، اگر بپرسید “2+2 چیست؟” ChatGPT ریاضی را به روشی که بیشتر انسانها میدانند نمیداند. درعوض، بر الگوهایی که دریافت کرده، تکیه دارد. از آنجایی که اغلب معادلاتی مانند “2+2=4” را در دادههای خود شناسایی کرده است، به احتمال زیاد پاسخی که میدهد عدد “4” است. بااینحال، از آنجا که همیشه اینطور نیست، گاهی اوقات به شما میگوید که 2+2 برابر است با ایالت یوتا، یا چیزی مشابه، که فرضیه اشتباه غیرقابل درکی است.
ChatGPT و چتباتهای مشابه به دور از توانایی استدلال انسانی، فقط بر اساس اطلاعاتی که از قبل دریافت کردهاند بهشما پاسخ میدهند. البته معمولاً این چتباتها خوب کار میکند، اما به این معنی است که LLM ها اغلب اشتباه میکنند و هوش مصنوعی احتمالاً تفاوت را نمیداند.
البته اطلاعات بیشتری در مورد نحوه عملکرد هوش مصنوعی وجود دارد که در اینجا امکان پرداختن به همه این موضوعات وجود ندارد. حتی قبل از در نظر گرفتن پیامدهای اجتماعی LLMها، مهم است که به یاد داشته باشید بسیاری از آنها از طریق اینترنت کار میکنند. جالب است بدانید هر بار که درخواستی را در ChatGPT، Bing Chat، Google Gemini یا هر LLM دیگری تایپ میکنید، کلمات شما از طریق اینترنت به سیستمهای کامپیوتری شرکت مربوطه منتقل میشوند.
اما ChatGPT با دادههای شما چه میکند. سیاست حفظ حریم خصوصی OpenAI روشن میکند که قصد دارد از دادههای شما برای آموزش بیشتر مدلهای خود استفاده کند و ممکن است اطلاعات شخصی شما را بدون اطلاعتان در اختیار اشخاص ثالث قرار دهد، مگر اینکه طبق قانون الزامی شود. کارمندان این شرکت همچنین به دادههای کاربران برای پاسخ بهسوالات دسترسی دارند.
اما این فقط OpenAI نیست که اطلاعات شما را در اختیار دارد. شرکای آن که شامل مایکروسافت و شرکت ذخیرهسازی ابری Snowflake میشود، نیز دسترسی دارند. البته همین امر در مورد بسیاری از هوش مصنوعیهای رقیب نیز صدق میکند. Google Gemini در حال حاضر پیامی را نشان میدهد که به کاربر هشدار میدهد: مکالمات شما توسط بازبینهای انسانی پردازش میشوند… چیزی را که نمیخواهید بازبینی یا استفاده شود وارد نکنید.
این نگرانیهای حفظ حریم خصوصی تئوری نیست. در ژوئیه ۲۰۲۳، واشنگتن پست گزارش داد که کمیسیون تجارت فدرال ایالات متحده تحقیقات OpenAI را به دلیل نشت دادهها و عدم دقت عمومی این فناوری آغاز کرده است. در همینحال، یک محقق حریم خصوصی در اتحادیه اروپا شکایتی را مبنیبر اینکه OpenAI قوانین حریم خصوصی اروپا را نقض میکند، ارائه کرد.
جدای از نگرانیهای مربوط به حفظ حریم خصوصی، خطر دیگر LLM ها مانند ChatGPT این است که آنها مستعد ایجاد و انتشار اطلاعات نادرست هستند. پاسخهای نادرست اغلب بهعنوان “توهم” شناخته میشوند، اما این یک نام اشتباه است. LLMها نمیفهمند چه میگویند. هدف آنها توزیع احتمال روی توالی کلمات یا توالی نشانهها است که به آنها اجازه میدهد تا پیشبینی کنند کلمه بعدی در یک توالی چیست. به عبارت دیگر، صرفنظر از اشتباه بودن مدلهای آماری، هوش مصنوعی با اطمینان کلمه نادرست را بیان میکند.
معنی آن برای شما این است که اگر سوالی مانند “چه مدت میتوان شیر را خارج از یخچال نگهداری کرد؟” وارد کنید. براساس اطلاعات آماری که پیشتر دریافت کرده با عباراتی مانند “بیشتر از دو ساعت نیست”، به شما میگوید که این طولانیترین زمانی است که باید شیر خارج از یخچال نگهداری کنید. اما در مورد چیزی که کمتر شناخته شده یا ثابت است سؤال میکنید چه میگوید؟ هنگامی که از ChatGPT در مورد مسیرهای پیاده روی در Red Rocks در کلرادو سؤال شد، ChatGPT بیشتر موارد را به درستی دریافت کرد، اما مسیرهایی را نام برد که وجود ندارند.
علیرغم تلاشهایی که شرکتهایی مانند OpenAI میکنند تا از ارائه توصیههای خطرناک یا اطلاعات نادرست توسط هوش مصنوعی به کاربران جلوگیری کنند، میتوان این اطلاعات را دور زد یا هوش مصنوعی را بهسادگی فریب داد. یک استاد دانشگاه A&M تگزاس پس از اینکه از ChatGPT پرسید که آیا مقالات دانشجویانش توسط یک هوش مصنوعی نوشته شده است یا خیر، تلاش کرد کار همه دانشجویان را زیر سوال ببرد. براین اساس تا زمانی که نتوانید بین هوش مصنوعی و کار انسان، تفاوت را تشخیص دهید کار سختی خواهد بود.
در واقع، زمانی که ChatGPT را با پاراگراف قبلی که توسط انسان نوشته شده بود در همین مقاله مورد آزمایش قرار دادند، هوش مصنوعی ادعا کرد که آن را نوشته است. تاکنون، روی خطراتی که ChatGPT میتواند برای افراد و کار آنها ایجاد کند، تمرکز شده است. اما باید به بررسی نگرانیهای ایمنی برای جامعه پرداخت. به هر حال، در جامعهای که LLM ها به سرعت در حال تبدیل شدن به جریان اصلی هستند، چقدر ایمن هستید؟ به نظر نمیرسد که رباتها هنوز قادر به قیام علیه بشریت باشند. اما انسانها از این فناوری به روشهای ترسناک سوءاستفاده میکنند و ادامه خواهند داد و از آنجایی که آنها بر روی دادههای انسانی آموزش دیدهاند، LLMها برخی از بدترین نقصهای ما را شناسایی میکنند.
شرکتها تلاش کردهاند تا برخی از این مشکلات را حل کنند. به خاطر داشته باشید که هوش مصنوعی اساساً در مورد همه چیز در اینترنت، از جمله انبوهی از نژادپرستی، تبعیض جنسی و سایر سوگیریهای مضر آموزش دیده است. بنابراین، شرکتها سعی کردهاند هوش مصنوعی خود را برنامه ریزی کنند تا فعالانه از این مشکلات در پاسخهای خود جلوگیری کنند. این از نظر تئوری خوب بهنظر میرسد، اما در فوریه 2024، Gemini LLM گوگل تصاویری را ایجاد کرد که نازیها را به عنوان رنگین پوستان نشان میداد و سروصدای زیادی بهپا کرد.
از LLM ها برای خواندن درخواستهای شغلی نیز استفاده میشود، این مشکل زمانی است که بر اساس تحقیقات قبلی متوجه شدند که مدیران استخدام انسانی نسبت به نام، نژاد، جنسیت و عوامل دیگر تعصب دارند. در واقع، هنگامی که رزومهای از متقاضیان واجد شرایط یکسان داده شد، محققان دریافتند که LLM نیز تصمیمات مغرضانهای میگیرد. این یک یادآوری خوب است که اگر ما هوش مصنوعیهای نسل فعلی را خیلی سریع بپذیریم، سناریوهای وحشتناک ممکن است شروع به ظهور کنند.
نظرات
دیدگاه خود را اشتراک گذارید