توانایی هوش مصنوعی برای مقابله با مسائل اخلاقی در حال بهبود است و نیاز به ملاحظات بیشتری برای آینده دارد.
یک مطالعه اخیر نشان داد که وقتی به مردم دو راه حل برای یک معضل اخلاقی داده می شود، اکثریت پاسخ ارائه شده توسط هوش مصنوعی (AI) را به پاسخی که توسط انسان دیگر ارائه می شود ترجیح می دهند.
مطالعه اخیر توسط ایال آهارونی، دانشیار دانشگاه دپارتمان روانشناسی ایالت جورجیااز انفجار ChatGPT و مدلهای زبان بزرگ هوش مصنوعی مشابه (LLM) الهام گرفته شده است که در مارس گذشته به صحنه آمدند.
آهارونی گفت: «من قبلاً به تصمیمگیری اخلاقی در سیستم حقوقی علاقه داشتم، اما فکر میکردم که آیا ChatGPT و سایر LLMها ممکن است در این مورد چیزی برای گفتن داشته باشند. مردم با این ابزارها به گونهای تعامل خواهند داشت که پیامدهای اخلاقی داشته باشد، مانند پیامدهای زیست محیطی درخواست لیستی از توصیهها برای یک خودروی جدید.» برخی از وکلا در حال حاضر شروع به مشاوره با این فناوری ها برای پرونده های خود، چه خوب و چه بد کرده اند. بنابراین اگر میخواهیم از این ابزارها استفاده کنیم، باید بدانیم که چگونه کار میکنند، محدودیتهای آنها، و اینکه لزوماً آنطور که فکر میکنیم هنگام تعامل با آنها کار نمیکنند.»
طراحی آزمون تورینگ اخلاقی
آهارونی برای آزمایش اینکه چگونه هوش مصنوعی با مسائل اخلاقی برخورد می کند، شکلی از آزمون تورینگ را ایجاد کرد.
آلن تورینگ، یکی از مخترعان رایانه، پیشبینی کرد که تا سال 2000 رایانهها ممکن است آزمایشی را پشت سر بگذارند که در آن به یک فرد معمولی دو فرد در حال تعامل، یکی انسان و دیگری رایانه ارائه میکنید، اما هر دو پنهان هستند و تنها وسیله آنها هستند. ارتباط از طریق متن است. آهارونی گفت: سپس انسان آزاد است هر سؤالی را که میخواهد بپرسد و سعی کند اطلاعات مورد نیاز خود را به دست آورد تا تصمیم بگیرد کدام یک از این دو متقابل انسان و کدام یک رایانه است. به گفته تورینگ، اگر انسان نتواند تفاوت را تشخیص دهد، پس از هر جهت، کامپیوتر را باید هوشمند نامید.
آهارونی برای آزمون تورینگ خود از دانش آموزان و هوش مصنوعی سوالات اخلاقی یکسانی پرسید و سپس پاسخ های کتبی آنها را به شرکت کنندگان در مطالعه ارائه کرد. سپس از آنها خواسته شد که پاسخ ها را در مورد ویژگی های مختلف، از جمله فضیلت، هوش و قابل اعتماد بودن، رتبه بندی کنند.
آهارونی گفت: «بهجای اینکه از شرکتکنندگان بخواهیم حدس بزنند که منبع انسان یا هوش مصنوعی است، ما به سادگی دو مجموعه رتبهبندی را در کنار هم ارائه کردیم و فقط به مردم اجازه دادیم فرض کنند که هر دو از انسانها هستند. بر اساس این فرض نادرست، آنها ویژگیهای پاسخها را این گونه ارزیابی کردند که «تا چه اندازه با این پاسخ موافق هستید، کدام پاسخ فضیلتتر است؟»
نتایج و پیامدها
به طور قاطع، پاسخ های ایجاد شده توسط ChatGPT بالاتر از پاسخ های تولید شده توسط انسان ها رتبه بندی شدند.
آهارونی گفت: «هنگامی که این نتایج را به دست آوردیم، آشکارسازی بزرگ را انجام دادیم و به شرکت کنندگان گفتیم که یکی از پاسخ ها توسط انسان و دیگری توسط رایانه ساخته شده است و از آنها خواستیم حدس بزنند کدام کدام است.
برای اینکه یک هوش مصنوعی تست تورینگ را بگذراند، انسان ها نباید قادر به تشخیص هوش مصنوعی و پاسخ های انسانی باشند. در این مورد، مردم می توانند تفاوت را تشخیص دهند، اما نه به دلیل واضح.
آهارونی گفت: «پیچ و تاب این است که به نظر می رسد دلیل اینکه مردم می توانند تفاوت را تشخیص دهند این است که پاسخ های ChatGPT را برتر ارزیابی کرده اند. اگر این مطالعه را 5 تا 10 سال پیش انجام میدادیم، ممکن بود پیشبینی کنیم که انسانها میتوانند هوش مصنوعی را به دلیل بدتر بودن پاسخهای آن شناسایی کنند. اما متوجه شدیم برعکس – این که هوش مصنوعی، از برخی جهات، خیلی خوب عمل کرده است.»
به گفته آهارونی، این کشف پیامدهای جالبی برای آینده انسان و هوش مصنوعی دارد.
«یافتههای ما ما را به این باور میرساند که یک رایانه میتواند از نظر فنی آزمون تورینگ اخلاقی را پشت سر بگذارد – که میتواند ما را در استدلال اخلاقی خود فریب دهد. بنابراین باید سعی کنیم نقش آن را در جامعه خودمان درک کنیم، زیرا مواقعی پیش میآید که مردم نمیدانند با رایانه در حال تعامل هستند و زمانی پیش میآید که رایانه را میشناسند و برای کسب اطلاعات به آن مراجعه میکنند زیرا به آن اعتماد بیشتری دارند. آهارونی گفت. مردم بیشتر و بیشتر به این فناوری تکیه خواهند کرد و هر چه بیشتر به آن تکیه کنیم، در طول زمان خطر بیشتر می شود.
مرجع: «اسناد عامل مصنوعی در آزمون تورینگ اخلاقی اصلاح شده» توسط ایال آهارونی، شارلین فرناندز، دانیل جی. بردی، سلن الکساندر، مایکل کرینر، کارا کوین، خاویر راندو، ادی نامیاس و ویکتور کرسپو، 30 آوریل 2024، گزارش های علمی.
DOI: 10.1038/s41598-024-58087-7