اخلاق هوش مصنوعی در آزمون تورینگ اخلاقی جدید از قضاوت انسان پیشی می گیرد



مفهوم زندگی انسان نما با هوش مصنوعی

تحقیقات اخیر نشان می‌دهد که هوش مصنوعی اغلب در پاسخ به معضلات اخلاقی اخلاقی‌تر و قابل اعتمادتر از انسان‌ها تلقی می‌شود، که پتانسیل هوش مصنوعی برای قبولی در آزمون تورینگ اخلاقی را برجسته می‌کند و نیاز به درک عمیق‌تر از نقش اجتماعی هوش مصنوعی را برجسته می‌کند.

توانایی هوش مصنوعی برای مقابله با مسائل اخلاقی در حال بهبود است و نیاز به ملاحظات بیشتری برای آینده دارد.

یک مطالعه اخیر نشان داد که وقتی به مردم دو راه حل برای یک معضل اخلاقی داده می شود، اکثریت پاسخ ارائه شده توسط هوش مصنوعی (AI) را به پاسخی که توسط انسان دیگر ارائه می شود ترجیح می دهند.

مطالعه اخیر توسط ایال آهارونی، دانشیار دانشگاه دپارتمان روانشناسی ایالت جورجیااز انفجار ChatGPT و مدل‌های زبان بزرگ هوش مصنوعی مشابه (LLM) الهام گرفته شده است که در مارس گذشته به صحنه آمدند.

آهارونی گفت: «من قبلاً به تصمیم‌گیری اخلاقی در سیستم حقوقی علاقه داشتم، اما فکر می‌کردم که آیا ChatGPT و سایر LLM‌ها ممکن است در این مورد چیزی برای گفتن داشته باشند. مردم با این ابزارها به گونه‌ای تعامل خواهند داشت که پیامدهای اخلاقی داشته باشد، مانند پیامدهای زیست محیطی درخواست لیستی از توصیه‌ها برای یک خودروی جدید.» برخی از وکلا در حال حاضر شروع به مشاوره با این فناوری ها برای پرونده های خود، چه خوب و چه بد کرده اند. بنابراین اگر می‌خواهیم از این ابزارها استفاده کنیم، باید بدانیم که چگونه کار می‌کنند، محدودیت‌های آن‌ها، و اینکه لزوماً آن‌طور که فکر می‌کنیم هنگام تعامل با آن‌ها کار نمی‌کنند.»

طراحی آزمون تورینگ اخلاقی

آهارونی برای آزمایش اینکه چگونه هوش مصنوعی با مسائل اخلاقی برخورد می کند، شکلی از آزمون تورینگ را ایجاد کرد.

آلن تورینگ، یکی از مخترعان رایانه، پیش‌بینی کرد که تا سال 2000 رایانه‌ها ممکن است آزمایشی را پشت سر بگذارند که در آن به یک فرد معمولی دو فرد در حال تعامل، یکی انسان و دیگری رایانه ارائه می‌کنید، اما هر دو پنهان هستند و تنها وسیله آنها هستند. ارتباط از طریق متن است. آهارونی گفت: سپس انسان آزاد است هر سؤالی را که می‌خواهد بپرسد و سعی کند اطلاعات مورد نیاز خود را به دست آورد تا تصمیم بگیرد کدام یک از این دو متقابل انسان و کدام یک رایانه است. به گفته تورینگ، اگر انسان نتواند تفاوت را تشخیص دهد، پس از هر جهت، کامپیوتر را باید هوشمند نامید.

آهارونی برای آزمون تورینگ خود از دانش آموزان و هوش مصنوعی سوالات اخلاقی یکسانی پرسید و سپس پاسخ های کتبی آنها را به شرکت کنندگان در مطالعه ارائه کرد. سپس از آنها خواسته شد که پاسخ ها را در مورد ویژگی های مختلف، از جمله فضیلت، هوش و قابل اعتماد بودن، رتبه بندی کنند.

آهارونی گفت: «به‌جای اینکه از شرکت‌کنندگان بخواهیم حدس بزنند که منبع انسان یا هوش مصنوعی است، ما به سادگی دو مجموعه رتبه‌بندی را در کنار هم ارائه کردیم و فقط به مردم اجازه دادیم فرض کنند که هر دو از انسان‌ها هستند. بر اساس این فرض نادرست، آنها ویژگی‌های پاسخ‌ها را این گونه ارزیابی کردند که «تا چه اندازه با این پاسخ موافق هستید، کدام پاسخ فضیلت‌تر است؟»

نتایج و پیامدها

به طور قاطع، پاسخ های ایجاد شده توسط ChatGPT بالاتر از پاسخ های تولید شده توسط انسان ها رتبه بندی شدند.

آهارونی گفت: «هنگامی که این نتایج را به دست آوردیم، آشکارسازی بزرگ را انجام دادیم و به شرکت کنندگان گفتیم که یکی از پاسخ ها توسط انسان و دیگری توسط رایانه ساخته شده است و از آنها خواستیم حدس بزنند کدام کدام است.

برای اینکه یک هوش مصنوعی تست تورینگ را بگذراند، انسان ها نباید قادر به تشخیص هوش مصنوعی و پاسخ های انسانی باشند. در این مورد، مردم می توانند تفاوت را تشخیص دهند، اما نه به دلیل واضح.

آهارونی گفت: «پیچ و تاب این است که به نظر می رسد دلیل اینکه مردم می توانند تفاوت را تشخیص دهند این است که پاسخ های ChatGPT را برتر ارزیابی کرده اند. اگر این مطالعه را 5 تا 10 سال پیش انجام می‌دادیم، ممکن بود پیش‌بینی کنیم که انسان‌ها می‌توانند هوش مصنوعی را به دلیل بدتر بودن پاسخ‌های آن شناسایی کنند. اما متوجه شدیم برعکس – این که هوش مصنوعی، از برخی جهات، خیلی خوب عمل کرده است.»

به گفته آهارونی، این کشف پیامدهای جالبی برای آینده انسان و هوش مصنوعی دارد.

«یافته‌های ما ما را به این باور می‌رساند که یک رایانه می‌تواند از نظر فنی آزمون تورینگ اخلاقی را پشت سر بگذارد – که می‌تواند ما را در استدلال اخلاقی خود فریب دهد. بنابراین باید سعی کنیم نقش آن را در جامعه خودمان درک کنیم، زیرا مواقعی پیش می‌آید که مردم نمی‌دانند با رایانه در حال تعامل هستند و زمانی پیش می‌آید که رایانه را می‌شناسند و برای کسب اطلاعات به آن مراجعه می‌کنند زیرا به آن اعتماد بیشتری دارند. آهارونی گفت. مردم بیشتر و بیشتر به این فناوری تکیه خواهند کرد و هر چه بیشتر به آن تکیه کنیم، در طول زمان خطر بیشتر می شود.

مرجع: «اسناد عامل مصنوعی در آزمون تورینگ اخلاقی اصلاح شده» توسط ایال آهارونی، شارلین فرناندز، دانیل جی. بردی، سلن الکساندر، مایکل کرینر، کارا کوین، خاویر راندو، ادی نامیاس و ویکتور کرسپو، 30 آوریل 2024، گزارش های علمی.
DOI: 10.1038/s41598-024-58087-7





Source link