هوش مصنوعی و آگاهی

به گزارش علمی نیوز و به نقل از Psychology Today، اخیراً شاهد انفجاری در تعداد بحثها در مورد هوش مصنوعی (AI) و پیشرفتهای الگوریتمها برای بهبود قابلیت استفاده و کاربردهای عملی آن بودهایم. ChatGPT یکی از ستارههای این بحثها است، با «مدل زبان بزرگ» (LLM). این مدلها به تکامل خود ادامه میدهند و مصنوعات فنی و قانعکنندهتری تولید میکنند، از جمله تولید تصویر و عوامل هوش مصنوعی مکالمهای تکاملیافته.
قیاس با ادراک و شناخت انسان ذاتی این بحث ها است و بر چگونگی پیشرفت این مدل ها تأثیر گذاشته است. این پیامدهایی برای چگونگی درک ما از ذهن و آینده علوم شناختی دارد.
توجه در ماشین آلات
می توان استدلال کرد که پیشرفت اخیر در هوش مصنوعی با ترکیب مکانیسم های انسان مانند در رفتار این سیستم های پردازش زبان ایجاد شده است. شاید قوی ترین تأثیر تا کنون مکانیسم « توجه » باشد.
در مقاله توجه همه آن چیزی است که شما نیاز دارید (واسوانی و همکاران، 2017)، نویسندگان از «توجه به خود» به عنوان مؤلفه ای در مدل شبکه عصبی «تبدیل کننده» خود استفاده می کنند. اساساً، این رویکرد به ترانسفورماتور اجازه میدهد تا بر روی بخشهای مختلف یک توالی اطلاعات به صورت موازی تمرکز کند و تعیین کند چه چیزی برای تولید خروجی مهمتر است، مشابه نحوه عملکرد سیستمهای پردازش توجه در موجودات زنده. این باعث میشود که مدل ترانسفورماتور نسبت به مدلهای قبلی که مبتنی بر شبکههای تکراری یا معماریهای رمزگذار-رمزگر بودند، کارآمدتر باشد.
با توجه به اینکه چگونه انسان ها اطلاعات را به صورت موازی پردازش می کنند و می توانند اطلاعات مهم را اولویت بندی کنند و در عین حال اطلاعات نامربوط را سرکوب کنند، به نظر می رسد که اکنون هوش مصنوعی از طریق این تکنیک بهتر می تواند شبیه عملکرد انسان مانند باشد. پیامدهای این پیشرفت چیست؟
ما بر این باوریم که توجه و توجه به خود مؤلفههای حیاتی آگاهی هستند، زیرا این سیستمها از نظارت بر وضعیت فعلی یک سیستم، به ویژه با توجه به حفظ هموستاتیک موجودات پیچیده پشتیبانی میکنند . با این حال، توجه لزوماً نشاندهنده احساس کیفی «خود» نیست که مرکز آگاهی انسان است.
هموستاز در ماشین ها
معرفی اهداف "خودپایدار" که به سیستم های اطلاعاتی برای حفظ حالت های هموستاتیک نیاز دارند، آینده هوش ماشینی را جالب تر می کند.
یک مقاله اخیر رویکرد قانعکنندهای را برای ایجاد یک هوش مصنوعی شبیه انسان با افزودن «نیازهای سیستم» به مدل هوش مصنوعی توصیف میکند. در اصل، این باعث میشود که یک سیستم حالتهای داخلی خاصی را که نیازهای سیستمهای بیولوژیکی را برای حفظ هموستاز شبیهسازی میکنند، نظارت کند - یعنی نیاز به حفظ تعادل در نیازهای یک محیط دائماً در حال تغییر.
Man و همکارانش (2022) "شناخت سطح بالا را به عنوان نتیجه ای از منابعی می دانند که برای حل مشکل بیولوژیکی باستانی هموستاز ایجاد شده است." این بدان معناست که اطلاعات پردازش شده توسط سیستم های بیولوژیکی با توجه به "ارزش" آن برای حفظ زندگی اولویت بندی می شود. به عبارت دیگر، جستوجوی اطلاعات مرتبط ذاتی محرک بیولوژیکی برای سازماندهی سیستم و تعاملات موفق با محیط است . در غیر این صورت، سیستم ناهماهنگ است و مستعد خرابی است.
در مدل "یادگیرنده هموستاتیک" آنها (که در طبقه بندی تصویر استفاده می شود)، پیامدهایی برای یادگیری چیزهای درست در مقابل چیزهای اشتباه وجود دارد. این سیستم را به سمت "تصمیم گیری خوب" سوق می دهد و نیاز به یادگیری مطابق با وضعیت در حال تغییر سیستم را ایجاد می کند تا از شکست جلوگیری شود.
جالب توجه است، این طبقهبندیکننده هموستاتیک میتواند با «تغییرهای مفهومی» شدید سازگار شود و به طور مؤثرتری نسبت به مدلهای پردازش زبان سنتی بیاموزد. یادگیرنده هومئوستاتیک برای حفظ تعادل با تغییرات محیط سازگار می شود، مشابه آنچه موجودات زیستی ممکن است در محیط های پویا خود این کار را انجام دهند.
توانایی تشخیص "تغییر مفهوم" در هنگام پردازش اطلاعات مطمئناً برای همدلی مهم است. در چارچوب تعامل انسان و رایانه، یک هوش مصنوعی اکنون این پتانسیل را دارد که با تشخیص تغییرات خلقی یا رفتاری انسان، تعاملات با انسان ها را تطبیق داده و بهبود بخشد. اگر این سیستمها به روش صحیح پاسخ دهند، ممکن است نوعی همدلی را نشان دهند - درک کاربر و انطباق رفتار بر اساس این سیگنالها.
در حالی که ما همدلی را یکی دیگر از مؤلفههای حیاتی آگاهی در نظر میگیریم، اما هنوز چیزی در هوش مصنوعی وجود ندارد. چیست؟
این سوال انتقادی است. شاید بتوان به "مولفه های طبیعی" در پشت نیاز به هموستاز در موجودات زنده اشاره کرد - ترکیبی از زیست شناسی، فیزیک و زمینه. در حالی که ماشین ها می توانند چنین نیازهایی را شبیه سازی کنند، آیا می توانند به طور طبیعی در ماشین ها رخ دهند؟
آگاهی در ماشین ها
از آنجایی که این LLM های جدید می توانند توجه خود را نشان دهند، به جریان های اطلاعاتی متعدد به طور موازی توجه کنند، به سمت هموستاز تلاش کنند و با محیط در حال تغییر خود سازگار شوند، آیا این بدان معناست که ما به سمت هوش مصنوعی آگاهانه پیش می رویم؟ آیا به زودی ربات های واقعاً همدلی خواهیم داشت که با تجارب کیفی خود "آگاهی آگاهانه" از وضعیت سیستم ایجاد کنند؟
احتمالا نه. در حالی که مدل های توجه برای LLM مشابه شبکه های عصبی است که از ادراک و شناخت پشتیبانی می کنند، هنوز تفاوت های مهمی وجود دارد که منجر به هوش مصنوعی آگاهانه نمی شود.
ما استدلال می کنیم که پردازش اطلاعات پیچیده بسیار مهم است، اما نه همه چیز (Haladjian & Montemayor, 2023). حتی زمانی که «نیاز» ماشینهای هوشمند برای حفظ کارایی بهینه و اجتناب از «شکستهای فاجعهبار» را فاکتور میگیریم، اینها سیستمهایی نیستند که به طور طبیعی تکامل یابند یا به طور طبیعی برای منابع بیولوژیکی یا فیزیکی رقابت کنند.
به طور مشابه، برخی از نظریه پردازان (میچل، 2021) استدلال می کنند که ما از یک هوش مصنوعی پیشرفته فاصله داریم زیرا ماشین ها فاقد توانایی های "عقل سلیم" انسان هستند، که ریشه در ماهیت بیولوژیکی موجودات زنده ای دارد که تعامل و پردازش چندوجهی دارد. اطلاعات حتی در پیچیدگی محیط ما، انسان ها می توانند با "آموزش" کمتر و بدون نظارت بیاموزند. شناخت تجسم یافته انسان بسیار پیچیده تر از شناخت تجسم شبیه سازی شده یک ماشین است.
آیا به زودی با ماشین های هوشیار مواجه خواهیم شد؟ آیا باید نگران آگاهی مصنوعی باشیم؟ آیا پیامدهای اخلاقی عمیق تری وجود دارد که هنوز باید در نظر بگیریم؟ امیدواریم علوم شناختی بتواند قبل از اینکه با روبات های واقعاً افسرده روبرو شویم به این سؤالات پاسخ دهد .