تاریخچه هوش مصنوعی و آیندهای که برایمان رقم میزند
چگونه تکامل AI همهچیز را تغییر میدهد
برای مدت طولانی، هوش مصنوعی یک مفهوم آیندهنگرانه به نظر میرسید. اما خوشبختانه، آینده اکنون اینجاست. در این مقاله قصد داریم به تاریخچه هوش مصنوعی بپردازیم.
هوش مصنوعی موضوعی است که همه در مورد آن صحبت میکنند. در واقع، یک مطالعه از مرکز تحقیقات پیو نشان میدهد که ۲۸٪ از آمریکاییها حداقل یک بار در روز یا چند بار در هفته از هوش مصنوعی استفاده میکنند. ایندرحالیاست که یک دهه پیش، هوش مصنوعی برای افراد عادی بیشتر شبیه به داستانهای علمی-تخیلی بود تا واقعیت.
امروز میتوانید با استفاده از چتباتهای هوش مصنوعی در عرض چند ثانیه مشکلات خود را حل کنید و حتی با برنامههایی مانند Midjourney تصاویر را از صفر خلق کنید. همچنین، غولهای فناوری مانند گوگل و متا به همراه دیگران، دائماً روشهای جدیدی برای استفاده از هوش مصنوعی ارائه میدهند. ما اکنون عملاً در “عصر هوش مصنوعی” هستیم.
اما چگونه هوش مصنوعی از یک مفهوم تخیلی به واقعیت تبدیل شد؟ در این مقاله، به تاریخچه هوش مصنوعی و اینکه چگونه تکامل یادگیری ماشینی در حال تغییر است، میپردازیم.
آلن تورینگ میپرسد آیا ماشینها میتوانند فکر کنند؟
هوش مصنوعی، مانند هر چیز دیگری در اطراف ما، با یک ایده آغاز شد و شخصی که پشت این ایده بود کسی نیست جز آلن تورینگ. تورینگ اولین کسی بود که این سؤال را مطرح کرد: “آیا ماشینها میتوانند فکر کنند؟”
در مقالهای طی سال ۱۹۵۰ به نام “ماشینهای محاسباتی و هوش”، تورینگ پیشنهاد داد که اگر یک ماشین بتواند مکالمهای شبیه به انسان داشته باشد، ممکن است هوشمند در نظر گرفته شود. او سپس یک آزمون معیاری به نام “بازی تقلید” ارائه داد که امروزه بهعنوان آزمون تورینگ شناخته میشود. برای گذراندن این آزمون، یک کامپیوتر باید از طریق مکالمات زبان طبیعی، رفتاری غیرقابل تشخیص از انسان نشان دهد. این آزمون دانشمندان را به این نتیجه رساند که بهترین رویکرد برای هوش ماشینی، مطالعه رفتار انسان و افزودن آن به ماشینها است. زمانی که این موضوع روشن شد، زبان به مرکز توجه سیستمهای هوش مصنوعی تبدیل شد و این موضوع حتی امروز هم صادق است.
بر اساس این کشف، برنامههایی مانند Logic Theorist و ELIZA ساخته شد. این برنامهها اولین نشانههای هوش ماشینی و پردازش زبان طبیعی را نشان دادند. Logic Theorist توسط آلن نیوول و هربرت سایمون در سال ۱۹۵۶ برای حل مسائل ریاضی ساخته شد. از سوی دیگر، ELIZA یک برنامه پردازش زبان طبیعی بود که در سال ۱۹۶۶ ساخته شد و میتوانست مکالمات شبیه به انسان را شبیهسازی کند. اینها فقط نمونهای از اولین نشانههای اثر دومینویی بودند که تورینگ آغازگر آن بود.
کنفرانس دارتموث، نقطه شروع هوش مصنوعی
آلن تورینگ نمیتواند تمام اعتبار را به خود اختصاص دهد. اگرچه او جرقه اولیه را زد، اما کنفرانس دارتموث در سال ۱۹۵۶ شعلههای آن را روشنتر کرد. این رویداد که توسط جان مککارتی، ماروین مینسکی، ناتانیل راچستر و کلود شانون سازماندهی شده بود، واقعاً هوش مصنوعی را به عنوان یک رشته علمی تثبیت کرد. در واقع، در همین کنفرانس بود که جان مککارتی اصطلاح “هوش مصنوعی” را ابداع کرد. کلود شانون پیشتر دستگاهی به نام “تئوس” اختراع کرده بود که یک موش رباتیک بود و یکی از اولین نمونههای یادگیری ماشینی محسوب میشد. این موش برنامهریزی شده بود تا مازها را حل کند و میتوانست به جلو حرکت کند یا در زاویه ۹۰ درجه بچرخد.
با اینکه این کنفرانس به پیشرفتهای فناورانه فوری منجر نشد، ایدههای آن دههها تحقیق را الهامبخشید و تا به امروز برای هوش مصنوعی اهمیت دارد. برخی از مباحث مطرحشده در دارتموث پایهگذار سیستمهای اولیهای مانند منطق نمادین و برنامههای مبتنی بر قواعد شدند که Logic Theorist و ELIZA نیز از آنها الهام گرفتهاند. نتایج این کنفرانس دههها بر این حوزه حاکم بود، اما تنها دانشگاهی نبود که نقش حیاتی در توسعه هوش مصنوعی ایفا کرد.
میراث رباتیک استنفورد
در صحبت از دانشگاههای برجسته، نمیتوان از سهم عظیم دانشگاه استنفورد در یادگیری ماشینی و توسعه غافل شد. ربات استنفورد کارت و شِیکی (Shakey) نمونههای کاملی از این دست هستند.
ربات استنفورد کارت یک ربات کوچک چرخدار بود که ابتدا در دهه ۱۹۶۰ به عنوان یک وسیله کنترل از راه دور ساخته شد. در دهه ۱۹۷۰، محققان آن را به رباتی تبدیل کردند که قادر به ناوبری مستقل در محیط خود بود و به دوربینها و یک رایانه اولیه مجهز شده بود. اگرچه این ربات بسیار کند و ممکن بود چند ساعت طول بکشد تا یک اتاق را طی کند، اما این موضوع چندان اهمیت نداشت، زیرا هدف اصلی آن عملکرد نبود، بلکه اثبات تئوری بود. این پروژه نشان میداد که ماشینها میتوانند محیط را تفسیر کنند، واکنش نشان دهند و تصمیم بگیرند. این نقطه عطف مهم در نهایت به خودروهای خودران منجر شد، البته در سطحی بسیار پیشرفتهتر.
شِیکی ربات دیگری بود که در زمینه هوش مصنوعی و رباتیک معجزهآسا بود. تقریباً در همان زمان که استنفورد کارت توسعه یافت، موسسه تحقیقات استنفورد نیز یکی از قدیمیترین و نمادینترین محصولات خود را معرفی کرد. شِیکی از دوربینها، حسگرها و یک سیستم هوش مصنوعی اولیه به نام STRIPS (حلکننده مسئله موسسه تحقیقات استنفورد) برای ناوبری محیط و برنامهریزی اقدامات خود استفاده میکرد.
استفاده از STRIPS هنوز هم یک ویژگی اصلی در تکنیکهای حل مسئله خودکار است و عنصری حیاتی از هوش مصنوعی امروزی محسوب میشود. برخلاف استنفورد کارت، شِیکی میتوانست پس از استدلال برنامه خود را تغییر دهد و این ویژگی او را به اولین رباتی تبدیل کرد که از ادراک، برنامهریزی و اجرا استفاده میکرد. این همان فناوری است که سیستمهای خودکار امروزی مانند رباتهای Proteus آمازون از آن بهره میبرند. نشانههای توسعه هوش مصنوعی هرگز امیدوارکنندهتر به نظر نمیرسید، تا اینکه این امید کاهش یافت.
زمستان هوش مصنوعی
هوش مصنوعی پس از مقاله تورینگ پیشرفت زیادی کرد و در اوایل کار نشانههای امیدوارکننده زیادی دیده میشد، اما این وضعیت در طول زمستانهای هوش مصنوعی تغییر کرد. در این دورهها، پیشرفت کند شد، بودجه کاهش یافت و علاقه به هوش مصنوعی از بین رفت. اولین زمستان هوش مصنوعی در دهه ۱۹۷۰، تقریباً بین سالهای ۱۹۷۴ تا ۱۹۸۰ رخ داد. در این دوره، محققان در تبدیل نظریه به واقعیت با مشکل مواجه بودند.
این موضوع عمدتاً بهدلیل محدودیتهای فناوری آن زمان بود. عواملی مانند کامپیوترهای کند، ذخیرهسازی ناکافی دادهها و حسگرهای غیرقابلاعتماد توسعه هوش مصنوعی را مختل کردند. در حالی که برخی از محققان از این محدودیتها آگاه بودند، روایت عمومی و تصور عمومی اغلب به سمت انتظارات اغراقآمیز متمایل بود. ادعاهایی مبنی بر اینکه هوش مصنوعی طی چند سال به هوش انسانی میرسد و سیستمهای خودمختار فراگیر خواهند شد، این انتظارات را تقویت کرد. اما موفقیتهای اولیه با سیستمهایی مانند شِیکی و Logic Theorist به پیشرفتهای پیشبینیشده در قدرت محاسباتی منجر نشد. هنگامی که این ادعاهای جاهطلبانه محقق نشدند، تردید میان سرمایهگذاران ایجاد شد.
دومین زمستان هوش مصنوعی بین اواخر دهه ۱۹۸۰ و اواسط دهه ۱۹۹۰ رخ داد. برخلاف زمستان اول، این بار دلیل اصلی، ظهور سیستمهای پیشرفته بود. سیستمهای هوشمند نرمافزاری بودند که برای تقلید از تصمیمگیری انسانی در زمینههای تخصصی مانند پزشکی و امور مالی طراحی شده بودند. اگرچه این سیستمها در برخی محیطها به خوبی کار میکردند، اما گران، شکننده و در مواجهه با شرایط پیچیده دچار مشکل میشدند و درست مانند زمستانهای اول، ناکامی آنها باعث شد کسبوکارها ارزش آن را زیر سؤال ببرند و اعتماد به هوش مصنوعی کاهش یابد.
پیروزی دیپبلو شرکت IBM بر قهرمان شطرنج
یادگیری ماشینی با استفاده از شناسایی الگوها دادهها را تحلیل کرده و پیشبینی میکند. این یکی از دلایلی است که چرا “دیپبلو” IBM اولین کامپیوتری بود که توانست یک قهرمان شطرنج را شکست دهد. دیپبلو ترکیبی از اصول یادگیری ماشینی و چشماندازهای هوش مصنوعی بود. این سیستم توانایی بررسی ۲۰۰ میلیون موقعیت شطرنج در هر ثانیه را داشت و از نیروی محاسباتی خالص و الگوریتم تصمیمگیری پیشرفتهای بهره میبرد. دیپبلو از ۳۲ پردازنده استفاده میکرد که سرعت پردازشی برابر با ۱۱.۳۸ میلیارد عملیات نقطه شناور در هر ثانیه (FLOPS) را فراهم میکردند.
مسابقه با “گری کاسپاروف” تنها تلاش دیپبلو برای شکست دادن این استاد بزرگ روسی نبود. در سال ۱۹۹۶، این سیستم در یک سری شش بازی به او باخت. با این حال، تیم IBM با استفاده از بینشهای بهدستآمده از آن مسابقه، الگوریتمها و عملکرد کلی سیستم را بهبود بخشیدند. در مسابقه مجدد سال ۱۹۹۷، دیپبلو توانست این سری را ببرد و به اولین ماشینی تبدیل شد که یک قهرمان شطرنج جهان را تحت شرایط مسابقات رسمی شکست داد و لحظهای تاریخی در تاریخ هوش مصنوعی رقم زد.
ظهور GPT از OpenAI
در حالی که دیپبلو نشان داد که هوش مصنوعی چیزی فراتر از تخیل است، یادگیری عمیق همان چیزی بود که هوش مصنوعی را به یک ابزار رایج در زندگی روزمره تبدیل کرد. مدل GPT از OpenAI دوباره تعریف کرد که ماشینها با پردازش زبان طبیعی چه تواناییهایی میتوانند داشته باشند، تواناییای که به آن امکان تولید محتوای انسانیمانند را میدهد.
در سال ۲۰۱۶، گوگل دیپمایند نوآوریهای حیاتی در قابلیتهای گفتار مصنوعی ارائه کرد. پس از آن، OpenAI اولین مدل GPT خود را در سال ۲۰۱۸ راهاندازی کرد. این مدل با استفاده از حجم زیادی از دادههای متنی اینترنتی آموزش دید و به طراحیای به نام “ترانسفورمر” تکیه داشت که در پردازش دادههای متوالی بسیار کارآمد است، مشابه نحوه عملکرد نورونها در مغز انسان.
چتبات GPT به لطف توانایی خود در شناسایی الگوها حتی در میان حجم زیادی از متن، پاسخهایی با فصاحت شگفتانگیز ارائه میدهد. این قابلیت باعث شد هوش مصنوعی به جریان اصلی وارد شود و در انواع فناوریها به کار گرفته شود. اما یک جهش بزرگتر در راه بود.
انفجار هوش مصنوعی
برخی فکر میکردند که GPT و ابزارهای هوش مصنوعی برای خدمات پشتیبانی مشتری نقطه اوج هوش مصنوعی خواهد بود، اما امکانات بیپایان هستند. ما اکنون خودروهای خودران، دستیارهای صوتی و تشخیصهای پزشکی مبتنی بر هوش مصنوعی داریم. یادگیری ماشینی در همهجا حضور دارد.
به عنوان مثال، “اتوپایلوت” تسلا از مدلهای یادگیری ماشینی مبتنی بر دید برای شناسایی خطوط جاده، چراغهای راهنمایی و خطرات بالقوه استفاده میکند. همچنین مدلهای یادگیری ماشینی اکنون میتوانند گزارشهای پزشکی مانند اشعه ایکس، امآرآی و سیتیاسکن را تحلیل کنند. این مدلها قادرند ناهنجاریها و عوامل خطر بالقوهای را شناسایی کنند که یک پزشک معمولی ممکن است از دست بدهد. برای نمونه، در سال ۲۰۱۸، دنیای پزشکی تحت تأثیر خبری قرار گرفت که نشان میداد هوش مصنوعی مبتنی بر یادگیری عمیق میتواند بیماری آلزایمر را شش سال زودتر از تستهای معمولی تشخیص دهد.
بهویژه، سال ۲۰۲۳ سال هوش مصنوعی بود. دانشآموزان نهتنها از ابزارهای هوش مصنوعی برای تحقیق و آموزش استفاده کردند بلکه به آنها تکیه کردند. شرکتها از هوش مصنوعی برای خودکارسازی برخی از وظایف تکراری و انجام وظایف ردیابی زمان برای کمک به کاهش هزینهها و افزایش بهرهوری استفاده میکنند. پشتیبانی مشتری اکنون با دستیارهای مجازی و چتباتهای آنلاین به مشتریان خدمات ۲۴/۷ ارائه میدهد.
علاوهبراین، افراد خلاق مانند هنرمندان، طراحان و نویسندگان نیز از هوش مصنوعی برای صرفهجویی در زمان پروژههای خود استفاده میکنند. شبکههای اجتماعی نیز از این روند عقب نماندند. اینستاگرام، اسنپچت و X به ترتیب Meta AI، My AI و Grok را در رابط کاربری خود معرفی کردند.
مقررات جدید برای هوش مصنوعی
انفجار هوش مصنوعی یک شمشیر دو لبه بود. با وجود پیشرفتهای فوقالعاده، رشد سریع هوش مصنوعی چالشهایی را نیز به همراه داشت که نمیتوان نادیده گرفت. برای مثال، برخی از این مدلها با استفاده از مجموعه دادههای نامتوازن برنامهریزی شدهاند که میتواند باعث نابرابری یا سوگیری شود. همچنین نگرانیهای مربوط به حریم خصوصی وجود دارد زیرا برنامههای هوش مصنوعی برای عملکرد مؤثر به دادههای شخصی شما متکی هستند.
برخی شغلها در معرض خطر قرار دارند زیرا هوش مصنوعی وظایفی را که قبلاً توسط انسانها انجام میشدند، با دقت بیشتر و صرفهجویی در هزینهها انجام میدهد. به همین دلیل، بسیاری از دولتها و سازمانهای منطقهای و بینالمللی مقرراتی را برای استفاده اخلاقی و عادلانه از هوش مصنوعی ایجاد کرده یا در حال ایجاد هستند.
بهعنوان مثال، اتحادیه اروپا قانون هوش مصنوعی (AI Act) را تصویب کرد. این چارچوب قانونی اطمینان میدهد که سیستمهای هوش مصنوعی قبل از راهاندازی با استانداردهای ایمنی و پاسخگویی مطابقت دارند. این قانون شفافیت را با الزام شرکتها به افشای مواردی که کاربران با هوش مصنوعی تعامل دارند، ارتقا میدهد. این موضوع بهویژه برای حوزههایی مانند استخدام یا مراقبتهای بهداشتی که مستقیماً بر زندگی افراد تأثیر میگذارد، اهمیت دارد.
آینده هوش مصنوعی
آینده هوش مصنوعی هنوز هم مانند یک رمان علمی تخیلی به نظر میرسد. هوش مصنوعی برای ماندن آمده، اما هنوز کارهای زیادی برای انجام دادن باقی مانده است تا ایدههای ما به واقعیت تبدیل شوند. یکی از چشماندازهای هیجانانگیز، تلفیق هوش مصنوعی با دیگر فناوریهای نوظهور است؛ به عنوان مثال، زمزمههایی درباره هوش مصنوعی هستهای به گوش میرسد. رایانش کوانتومی میتواند منجر به ایجاد هوش مصنوعی قدرتمندتری شود که در توسعه داروهای جدید، مدلسازی اقلیمی و حل مسائل پیچیده نقش ایفا کند. همچنین میتوانیم انتظار موفقیتهای مشابهی در رباتیک مبتنی بر هوش مصنوعی داشته باشیم که میتواند صنایع مختلف، از جمله تولید محصولات و مراقبت از سالمندان را متحول کند.
میتوان انتظار داشت که هوش مصنوعی موانع زبانی را از میان بردارد، تجارب آموزشی سفارشی ایجاد کند و کسبوکارهای کوچک را با ابزارهای خلاقانه هوش مصنوعی توانمند سازد. امکانات واقعاً بیپایان هستند؛ حتی میتوانید آیندهای را تصور کنید که رباتهای هوش مصنوعی بخشی از جامعه شوند، در نیروهای پلیس یا سایر مشاغلی که جان انسانها را به خطر میاندازند نقش ایفا کنند.
در حالی که آینده روشن بهنظر میرسد، جابهجایی شغلی و وابستگی بیش از حد به هوش مصنوعی تنها برخی از مشکلاتی هستند که جهان باید با آنها روبرو شود، زیرا هوش مصنوعی زندگی ما را دگرگون میکند.
نظرات
دیدگاه خود را اشتراک گذارید