مطالعه اپل نقایص اساسی در توانایی های استدلال منطقی هوش مصنوعی را نشان می دهد
بر اساس یک مطالعه جدید منتشر شده، تیم تحقیقاتی هوش مصنوعی اپل نقاط ضعف قابل توجهی را در توانایی های استدلال مدل های زبان بزرگ کشف کرده است.
این مطالعه که در arXiv منتشر شده است، ارزیابی اپل از طیف وسیعی از مدلهای زبان پیشرو، از جمله مدلهای OpenAI، Meta و دیگر توسعهدهندگان برجسته را نشان میدهد تا مشخص کند این مدلها چقدر میتوانند وظایف استدلال ریاضی را انجام دهند. یافتهها نشان میدهند که حتی تغییرات جزئی در عبارتبندی سؤالات میتواند باعث اختلافات عمده در عملکرد مدل شود که میتواند قابلیت اطمینان آنها را در سناریوهایی که نیاز به سازگاری منطقی دارند، تضعیف کند.
اپل توجه را به یک مشکل دائمی در مدلهای زبان جلب میکند: تکیه آنها به تطبیق الگو به جای استدلال منطقی واقعی. در چندین آزمایش، محققان نشان دادند که افزودن اطلاعات نامربوط به یک سؤال – جزئیاتی که نباید بر نتیجه ریاضی تأثیر بگذارد – می تواند به پاسخ های بسیار متفاوتی از مدل ها منجر شود.
یک مثال ارائه شده در مقاله شامل یک مسئله ریاضی ساده است که می پرسد یک فرد چند کیوی در چند روز جمع آوری کرده است. هنگامی که جزئیات نامربوط در مورد اندازه برخی از کیوی ها معرفی شد، مدل هایی مانند o1 OpenAI و Meta’s Llama به اشتباه کل نهایی را تنظیم کردند، علی رغم اینکه اطلاعات اضافی هیچ تاثیری روی راه حل نداشت.
ما هیچ مدرکی دال بر استدلال رسمی در مدل های زبان پیدا نکردیم. رفتار آنها با تطبیق الگوی پیچیده بهتر توضیح داده می شود – در واقع آنقدر شکننده است که تغییر نام می تواند نتایج را تا 10% تغییر دهد.
این شکنندگی در استدلال محققان را بر آن داشت تا به این نتیجه برسند که مدلها از منطق واقعی برای حل مسائل استفاده نمیکنند، بلکه در عوض بر تشخیص الگوی پیچیدهای که در طول آموزش آموخته شده است، تکیه میکنند. آنها دریافتند که «تغییر نامها میتواند نتایج را تغییر دهد»، یک علامت بالقوه نگرانکننده برای آینده برنامههای کاربردی هوش مصنوعی که نیاز به استدلال منسجم و دقیق در زمینههای دنیای واقعی دارند.
طبق این مطالعه، همه مدلهای آزمایششده، از نسخههای منبع باز کوچکتر مانند Llama گرفته تا مدلهای اختصاصی مانند GPT-4o OpenAI، در مواجهه با تغییرات ظاهراً بیاهمیت در دادههای ورودی، کاهش عملکرد قابلتوجهی را نشان دادند. اپل پیشنهاد میکند که هوش مصنوعی ممکن است نیاز به ترکیب شبکههای عصبی با استدلال سنتی و مبتنی بر نماد به نام هوش مصنوعی عصبی سمبولیک داشته باشد تا تواناییهای تصمیمگیری و حل مسئله دقیقتری را به دست آورد.