آیا ChatGPT اکنون می تواند فکر کند؟

به گزارش علمی نیوز و به نقل از Psychology Today، آخرین نسخه ChatGPT این سوال را دوباره مطرح کرد که دههها حول هوش مصنوعی (AI) میچرخید: آیا یک کامپیوتر امکان تفکر دارد؟ یک بار دیگر، ما در حال جابجایی تیرکهای هدف برای آنچه شواهدی است که رایانهها در واقع میتوانند فکر کنند، در نظر گرفته میشوند.
در دهههای 50 و 60، پیشگامان علوم رایانه به این نتیجه رسیدند که اگر رایانهای بتواند انسان را در بازی شطرنج شکست دهد، شواهد قانعکنندهای است که رایانهها میتوانند فکر کنند. (درباره این که چرا این بهترین آزمون برای قضاوت در مورد اینکه آیا رایانهها گوشهای را به عقلانیت تبدیل کردهاند یا خیر، بحثهای زیادی وجود دارد، اما این موضوع دیگری است.) سپس، در سال 1997، چیزی که زمانی شبیه به یک چشمانداز آیندهنگر به نظر میرسید، به واقعیت جدیدی تبدیل شد. . Deep Blue (سیستم توسعه یافته توسط IBM برای بازی شطرنج) استاد بزرگ شطرنج گری کاسپاروف را شکست داد. Deep Blue به قدرت محاسباتی محض متکی بود - می توانست 200 میلیون حرکت در ثانیه را شبیه سازی کند. قبل از اینکه مردم ارزیابیهای خود را در مورد معنای تفکر یک کامپیوتر بهروزرسانی کنند، به سختی به زمین برخورد کرد و خاطرنشان کردند که این پیروزی به دلیل نیروی محاسباتی وحشیانه است، نه یک ذهن. تیرک دروازه حرکت کرده بود.
زدیک به یک دهه به سرعت به جلو رفت و AlphaGo یک استاد بزرگ Go را به چالش کشید. اکنون، AlphaGo یک نوع بازی متفاوت بود – نمیتوان آن را تنها با تکیه بر حرکات برنامهریزیشده برنده شد. در عوض، AlphaGo توانست از تجربه خود بیاموزد (Buckner, 2024). در واقع، برنامه نویسی که روی این پروژه کار می کرد، از حرکت برنده شوکه و ناامید شد - برنامه نویس، مطمئن بود که AlphaGo یک خطای مرگبار مرتکب شده بود، نمی توانست پیش بینی کند که این حرکت چگونه بازی را تغییر می دهد، اما کامپیوتر به وضوح می توانست - و کامپیوتر برنده شد. پیروزی AlphaGo در این روش غیرقابل پیشبینی و برنامهریزی نشده هنوز این سوال را باز میگذاشت که آیا یک کامپیوتر میتواند فکر کند.
لبته، دلیل خوبی برای باز ماندن این سؤال وجود دارد، و بخشی از آن به این دلیل است که، همانطور که پیداست، تعریف معنای داشتن ذهن پیچیده است. AM Turing استدلال میکند که «اینکه یک سیستم ذهن دارد یا چقدر هوشمند است، به این بستگی دارد که چه کاری میتواند انجام دهد یا نمیتواند انجام دهد». (Haugeland, Craver & Klein, 2023) اگر یک سیستم به حدی مانند یک انسان رفتار کند که انسان نتواند «ذهن» سیستم را از ذهن انسان تشخیص دهد، آن سیستم دارای هوش یا عقل تلقی می شود.
این یک دیدگاه از معنای داشتن ذهن است. راه دیگر برای تعریف ذهن، تشخیص آن از مغز است. برای مثال، رنه دکارت معتقد بود که داشتن چیزی که او «عقل سلیم» میخواند، ممکن است راهی برای ایجاد تمایز باشد. در اینجا منظور او عقل سلیم توانایی استدلال و قضاوت درست از نادرست است. در دیدگاه دکارتی، انسان ها با حیوانات متفاوت هستند، زیرا انسان ها ذهن دارند و حیوانات ندارند. و چگونه به این نتیجه رسید: زیرا انسانها دارای تکلم هستند. «هیچ یک از اعمال بیرونی ما نمیتواند به کسی که آنها را بررسی میکند نشان دهد که بدن ما فقط یک ماشین متحرک نیست، بلکه حاوی روحی با افکار است، به استثنای کلمات یا نشانههای دیگری که به موضوعات خاص مربوط میشوند، بدون اینکه ابراز علاقه کنند.» (دکارت: نامه های فلسفی، از نامه به مارکز قلعه نو، 23 نوامبر 1646 )
خوب، مدلهای زبانی بزرگ این بحث را پیچیدهتر میکنند - حداقل به شکلی که دکارت آن را چارچوببندی میکند. دلیلش این است که آنها زبان دارند، اما این سؤال باقی می ماند: آیا آنها دانش دارند یا عقلانیت؟ آیا آنها می توانند به روشی که انسان ها یاد می گیرند یاد بگیرند؟ یا، آیا آنها فقط سیستم های احتمالی و الگوسازی هستند - چیزی که پروفسور امیلی بندر، دکترای زبان شناسی دانشگاه واشنگتن، آن را "طوطی های تصادفی" می نامد.
واقعاً جای تعجب نیست که ما با این گیج شده ایم. در همان زمان دانشمندان علوم شناختی مدل هایی از ذهن انسان و نظریه هایی برای توضیح رفتارها ایجاد کردند، علوم کامپیوتر به عنوان یک رشته پدیدار شد. سیستمهای رایانهای به استعارهای تأثیرگذار برای دانشمندان شناختی تبدیل شدند که شروع به استفاده از کلماتی مانند سرعت پردازش، دانلود و ذخیرهسازی برای توصیف فرآیندهای عصبی انسان کردند. در همان زمان، دانشمندان کامپیوتر از دانشمندان علوم شناختی با استفاده از عباراتی مانند شبکه های عصبی برای اشاره به محاسبات الگوریتم ها وام گرفتند. هر زمینه ای که قیاس هایی را از دیگری به عاریت می گیرد، ممکن است همان چیزی باشد که منجر به ادغام این دو شده است.
ظاهراً واضح به نظر می رسد: کامپیوتر یک ماشین است. انسان نیست و قادر به دانستن راهی نیست که انسان بداند و یادگیری برای کامپیوتر با انسان متفاوت است. اما، کمی عمیق تر بررسی کنید: چگونه یک کامپیوتر آموزش دیده بر روی جریان ها و جریان های داده با یک کودک نوپا که کلمات جدید را یاد می گیرد متفاوت است؟ آیا همه ما فقط آشکارسازهای الگوی احتمالی نیستیم؟ عصب شناسان و روانشناسان اغلب از مغز انسان به عنوان یک ماشین پیش بینی یاد می کنند. بنابراین وقتی می گوییم تمام کاری که هوش مصنوعی انجام می دهد این است که پیش بینی کند، چگونه آن را متفاوت از آنچه انجام می دهیم می بینیم؟
بندر استدلال میکند که این به نیت میرسد. یک ماشین ممکن است زبان داشته باشد اما نیت ارتباطی نداشته باشد. بنابراین، مدلهای زبان بزرگ میتوانند معانی متعارف را بیاموزند زیرا استاندارد شدهاند و نیازی به تفسیر ندارند. اما نیت ارتباطی با یک هدف و نیت شروع می شود. برای یک کامپیوتر، "اینجا گرم است" ممکن است به معنی چیزی در مورد دما و نحوه تفسیر گرم باشد - شاید هر چیزی بالاتر از 72 درجه. اما برای یک فرد، "اینجا گرم است" ممکن است به عنوان درخواست باز کردن پنجره یا روشن کردن کولر تعبیر شود. انسان می تواند عمل شناسی را توضیح دهد - معنایی فراتر از نحو و معناشناسی. برخی دیگر ممکن است اضافه کنند که تفکر مستلزم داشتن بازنمایی ذهنی است که کامپیوتر فاقد آن است.
طرفداران طرف دیگر بحث ممکن است استدلال کنند که هوش یا تفکر صرفاً تبدیل نمادها و ساختارها بر اساس قوانین است - و بس. رایانهها این کار را میکنند، و ما آن را انجام میدهیم، و هیچ چیز خارقالعاده یا ارزش بحث کردنی وجود ندارد.
بسیاری از هیاهوها و بحثها در مورد مدلهای زبانی بزرگ به زبان و نحوه تعریف ما از کلماتی مانند هوش، ذهن و تفکر بازمیگردد. این نشان میدهد که هوش به چه معناست، انسان بودن به چه معناست، و اینکه چرا ما از ماشینها انتظار داریم همزمان خطاناپذیر باشند و در عین حال هوس کنیم که انسانتر باشند (مانند یک انسان ارتباط برقرار کنند). باید تعجب کرد که آیا زبان طبیعی که توسط مدلهای زبانی بزرگ استفاده میشود، مانند ChatGPT، Gemini، یا Claude، فقط به این دلیل که زبان طبیعی را میفهمد و با آن ارتباط برقرار میکند، سیستم را با پوششی از هوش آغشته میکند. در دیدگاه دکارتی افراطی، به موجب این نظامها که از زبان استفاده میکنند، میتوان آنها را دارای دلیل دانست. آیا این کافی به نظر می رسد؟