بررسی تخصصی

مطالعه اپل نقایص اساسی در توانایی های استدلال منطقی هوش مصنوعی را نشان می دهد

بر اساس یک مطالعه جدید منتشر شده، تیم تحقیقاتی هوش مصنوعی اپل نقاط ضعف قابل توجهی را در توانایی های استدلال مدل های زبان بزرگ کشف کرده است.

مطالعه اپل نقایص اساسی در توانایی های استدلال منطقی هوش مصنوعی را نشان می دهد
این مطالعه که در arXiv منتشر شده است، ارزیابی اپل از طیف وسیعی از مدل‌های زبان پیشرو، از جمله مدل‌های OpenAI، Meta و دیگر توسعه‌دهندگان برجسته را نشان می‌دهد تا مشخص کند این مدل‌ها چقدر می‌توانند وظایف استدلال ریاضی را انجام دهند. یافته‌ها نشان می‌دهند که حتی تغییرات جزئی در عبارت‌بندی سؤالات می‌تواند باعث اختلافات عمده در عملکرد مدل شود که می‌تواند قابلیت اطمینان آنها را در سناریوهایی که نیاز به سازگاری منطقی دارند، تضعیف کند.

اپل توجه را به یک مشکل دائمی در مدل‌های زبان جلب می‌کند: تکیه آن‌ها به تطبیق الگو به جای استدلال منطقی واقعی. در چندین آزمایش، محققان نشان دادند که افزودن اطلاعات نامربوط به یک سؤال – جزئیاتی که نباید بر نتیجه ریاضی تأثیر بگذارد – می تواند به پاسخ های بسیار متفاوتی از مدل ها منجر شود.

یک مثال ارائه شده در مقاله شامل یک مسئله ریاضی ساده است که می پرسد یک فرد چند کیوی در چند روز جمع آوری کرده است. هنگامی که جزئیات نامربوط در مورد اندازه برخی از کیوی ها معرفی شد، مدل هایی مانند o1 OpenAI و Meta’s Llama به اشتباه کل نهایی را تنظیم کردند، علی رغم اینکه اطلاعات اضافی هیچ تاثیری روی راه حل نداشت.

ما هیچ مدرکی دال بر استدلال رسمی در مدل های زبان پیدا نکردیم. رفتار آنها با تطبیق الگوی پیچیده بهتر توضیح داده می شود – در واقع آنقدر شکننده است که تغییر نام می تواند نتایج را تا 10% تغییر دهد.

این شکنندگی در استدلال محققان را بر آن داشت تا به این نتیجه برسند که مدل‌ها از منطق واقعی برای حل مسائل استفاده نمی‌کنند، بلکه در عوض بر تشخیص الگوی پیچیده‌ای که در طول آموزش آموخته شده است، تکیه می‌کنند. آن‌ها دریافتند که «تغییر نام‌ها می‌تواند نتایج را تغییر دهد»، یک علامت بالقوه نگران‌کننده برای آینده برنامه‌های کاربردی هوش مصنوعی که نیاز به استدلال منسجم و دقیق در زمینه‌های دنیای واقعی دارند.

طبق این مطالعه، همه مدل‌های آزمایش‌شده، از نسخه‌های منبع باز کوچک‌تر مانند Llama گرفته تا مدل‌های اختصاصی مانند GPT-4o OpenAI، در مواجهه با تغییرات ظاهراً بی‌اهمیت در داده‌های ورودی، کاهش عملکرد قابل‌توجهی را نشان دادند. اپل پیشنهاد می‌کند که هوش مصنوعی ممکن است نیاز به ترکیب شبکه‌های عصبی با استدلال سنتی و مبتنی بر نماد به نام هوش مصنوعی عصبی سمبولیک داشته باشد تا توانایی‌های تصمیم‌گیری و حل مسئله دقیق‌تری را به دست آورد.

Rate this post

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا