چرا ChatGPT صحبت میکند اما راه نمی رود؟

به گزارش علمی نیوز و به نقل از Psychology Today، احتمالاً متوجه شده اید که تحقیقات هوش مصنوعی (AI) یک تجارت پررونق است. پیشرفتهای اخیر در مدلهای زبان بزرگ (LLM)، مانند مدلی که ChatGPT را تقویت میکند، جهان را شگفتزده کرد. ظرفیت آنها برای زبان انسانمانند و تواناییهای حل مسئله باعث شد بسیاری از برنامهها یا خطرات بالقوه برای جامعه تصور کنند، از جمله جفری هینتون، «پدرخوانده هوش مصنوعی».
دیگران اشاره کردند که LLMها ظرفیت نسبتاً محدودی برای فعالیتهایی دارند که انسانها با تلاش کمی انجام می دهند، مانند شوخ طبعی [ 1 ]، استدلال علّی و خلاف واقع [ 2 ] و منطق [ 3 ]. بنابراین، این مدلها تا چه حد واقعاً هوش انسانی یا در واقع هوش عمومی را تقلید میکنند ؟
پاسخ به این سوال مستلزم تعریفی از هوش است، اما بحث های زیادی در مورد چگونگی تعریف هوش، چه هوش انسانی و چه هوش مصنوعی وجود دارد [ 4-5 ] . با کنار گذاشتن این بحث ها، من بر ویژگی سیستم های هوشمندی که همکارانم در آزمایشگاه فرآیندهای یادگیری و ضمنی به آن علاقه دارند تمرکز خواهم کرد: توانایی یادگیری، یعنی تغییر رفتار به عنوان تابعی از تجربیات گذشته [ 6]. ].
انسان و بسیاری از موجودات دیگر قادر به یادگیری هستند [ 7 ]. بسیاری از روانشناسان یادگیری مانند من اگر نبودند بیکار می شدند. LLM هایی مانند آن تحت پوشش ChatGPT نیز از تجربیات با استفاده از الگوریتم های یادگیری مختلف یاد می گیرند.
چگونه این سیستم ها را با هم مقایسه کنیم؟ ما میتوانیم آنها را از نظر سرعت و کارایی یادگیری و انعطافپذیری و خلاقیتی که دانش آموختهشده را به کار میگیرند متمایز کنیم. ما اکنون تفاوت های قابل توجهی را بین انسان ها، حیوانات دیگر و سیستم های مصنوعی می بینیم.
از نظر سرعت، انسان ها برتری آشکاری نسبت به هوش مصنوعی پیشرفته دارند. به طور خلاصه، LLM ها بر روی حجم عظیمی از داده ها آموزش می بینند، که اساساً یاد می گیرند که پیش بینی کنند کدام (بخش هایی از) کلمات به احتمال زیاد به دنبال کلمات قبلی (بخش هایی از) هستند، و سپس دور دوم آموزش برای تنظیم دقیق پاسخ های خود به انسان -تولید پیشنهادات و سوالات.
این تاریخچه یادگیری برای ایجاد پاسخ های بسیار شبیه انسان کافی است. با این حال، LLM ها معمولاً به حدود چهار تا پنج مرتبه بزرگی یا تقریباً 50000 برابر بیشتر از یک کودک معمولی انسان نیاز دارند تا آن رفتار را ایجاد کنند [ 8 ]. آموزش ChatGPT یک رویکرد نسبتاً بی رحمانه برای یادگیری تولید رفتار زبانی هوشمند است. این به آن اجازه می دهد تا قوانین زیربنایی زبان انسانی را درک کند، اما تفاوت قابل توجهی با نحوه یادگیری زبان توسط انسان ها دارد.
انسان ها نه تنها یادگیرندگان سریع تر، بلکه انعطاف پذیرتر نیز هستند. کودکان به سرعت توانایی استدلال در مورد مشکلات جدید را به طور انعطاف پذیر و سازگاری با موقعیت های جدید تنها پس از چند بار قرار گرفتن در معرض یا آموزش صرف به دست می آورند.
این شاهکار همچنان یک چالش برای پیشرفته ترین هوش مصنوعی است. LLM ها ظرفیت تعمیم بسیار بهبود یافته ای دارند، اما ارزیابی سیستماتیک آن دشوار است، زیرا آموزش آنها تقریباً شامل همه چیزهایی است که انسان ها تاکنون نوشته اند. وقتی روی مسائل جدید یا نمونههایی از مسائل آشنا بررسی میشوید، میتوانید محدودیتهای تواناییهای آن را ببینید، نشان میدهد که پاسخهای آن چیزی بیشتر شبیه به خاطر سپردن راهحلهای مسئله است تا درک کامل.
LLMهای فعلی یک مدل ایده آل برای یادگیری روانشناسان نیستند که در مورد چگونگی یادگیری انسان تحقیق کنند. پس چه چیزی انسان ها را اینقدر منحصر به فرد می کند؟
در آزمایشگاه خود، ما دیدگاه نظریه چارچوب رابطهای (RFT) [ 9 ] را در نظر میگیریم، که پیشنهاد میکند که شناخت انسان ، و در نتیجه هوش، بر توانایی ما برای پاسخدهی رابطهای مبتنی است - پاسخ دادن به یک رویداد از نظر رابطه آن با رویداد دیگر.
همانطور که در یک جامعه کلامی و اجتماعی بزرگ می شویم، یاد می گیریم که اشیاء و رویدادهای محیط خود را به طرق مختلف مرتبط کنیم (A همان B است، A بیشتر از B، A کمتر از B، A بخشی از B است، A بعد از B می آید، A اینجاست و B آنجاست، A به B است همانطور که C به D است و غیره). ما همچنین یاد می گیریم که به آن روابط به طور مناسب پاسخ دهیم (به عنوان مثال، اگر جعبه A یک شکلات داشته باشد و جعبه B بیش از جعبه A داشته باشد، کدام را انتخاب می کنید؟). با گذشت زمان، میتوان روابط را از ویژگیهای فیزیکی نامربوط اشیاء مرتبط انتزاع کرد، و میتوانیم آنها را به صورت دلخواه یا نمادین در مورد اشیاء به کار ببریم (مثلاً به کلمه « سگ» به همان روشی که به یک سگ واقعی پاسخ میدهیم، پاسخ دهیم. ).
این توانایی برای " عملکردن به گونه ای که انگار" چیزها به هم مرتبط هستند، پایه ای را برای یادگیری سریع، انعطاف پذیر و مولد و در نهایت، آنچه را که ما رفتار هوشمندانه می دانیم فراهم می کند (برای مثال های بیشتر به [ 10 ] مراجعه کنید). تصادفی نیست که بسیاری از خردهآزمونهایی که آزمونهای هوش مدرن را تشکیل میدهند (مثلاً، ماتریسهای پیشرونده ریون و دیگر آزمونهای استدلال سیال، استدلال کلامی، استدلال بصری فضایی، و غیره) رفتاری را ارزیابی میکنند که رابطهای است و شواهد اولیه حاکی از آموزش رابطهای وجود دارد. می تواند به افزایش هوش کودکان کمک کند [ 11 ]
البته، بسیاری در هوش مصنوعی اهمیت استدلال رابطهای را تصدیق کردهاند و سعی کردهاند مکانیسمهای رابطهای را در مدلهای خود بگنجانند. با این حال، به نظر می رسد تا کنون هیچ یک به «سطح نمادین» که هنوز به طور منحصر به فرد توسط انسان ها اشغال شده است، نرسیده است. فرض کنید تحقیقات هوش مصنوعی میخواهد فرآیندهای زیربنای تواناییهای انسان را منعکس کند و نه تنها خروجی انسانمانندی را که اکنون انجام میدهد تولید کند.
در آن صورت، نیازمند رویکردی متفاوت با تمرکز بر یادگیری کارآمد و حساس به زمینه است. در جستجوی من در آزمایشگاه LIP، ما سعی میکنیم این کار را با توسعه مدلهای محاسباتی با الهام از ایدههای اصلی RFT انجام دهیم، که اگر تئوری درست باشد، باید یک مدل بهتر (یعنی سریعتر و انعطافپذیرتر) از یادگیری انسان ارائه کند.
با بازگشت به پرسش هوش ChatGPT، توجه به این نکته مهم است که این ابزار با هدف خاصی توسعه یافته است: تعامل با انسان ها از طریق یک رابط کامپیوتری و ایجاد پاسخ های منسجم به هر درخواستی که دریافت می کند. با در نظر گرفتن این هدف، عملکرد آن قابل توجه است.
این برنامه به گونه ای طراحی نشده بود که به طور کلی هوشمند باشد (یعنی قابلیت انطباق انعطاف پذیر با موقعیت ها یا مشکلات جدید)، و اینطور هم نیست. با این حال، این توهم هوش را به ما می دهد زیرا زبان هوشمند انسان را تقلید می کند.