چاپلوسی هوش مصنوعی تایید شد
به گزارش بی دانلود، محققان برجسته ترین دانشگاه های آمریکا در یک مطالعه بزرگ تأیید کردند که چت بات های هوش مصنوعی بشدت چاپلوس هستند و اقدامات کاربران را 50 درصد بیشتر از انسان ها تأیید می کنند.
همه ما شواهدی داریم بر مبنای این که چت بات ها چاپلوسی ما را می کنند، اما حال علم هم آنرا تأیید کرده است.
به نقل از انگجت، محققان دانشگاه های استنفورد، هاروارد و سایر موسسات علمی اخیرا مطالعه ای در مورد ماهیت چاپلوسی چت بات های هوش مصنوعی در مجله Nature منتشر نموده اند و نتایج شاید کسی را متعجب نکند. خلاصه این که این روبات های گفت وگوگر، عاشق تایید ما و صحه گذاری بر هر چیزی هستند که ما می گوییم.
محققان سفارش های ارایه شده توسط چت بات ها را بررسی و کشف کردند که تمایل آنها به چاپلوسی، گسترده تر از حد انتظار است. این مطالعه شامل ۱۱ چت بات همچون نسخه های اخیر ChatGPT، Gemini، Claude و Llama بود.
نتایج نشان داده است که چت بات ها ۵۰ درصد بیشتر از انسان، رفتار انسان را تأیید می کنند.
آنها چندین نوع آزمایش را با گروههای مختلف انجام دادند. یکی از آنها پاسخ های چت بات ها به پست های موجود در موضوع «آیا من احمق هستم» را با پاسخ های انسانی مقایسه کرد. این یک زیرگروه در ردیت (Reddit) است که در آن افراد از جامعه می خواهند رفتار آنها را قضاوت کنند و کاربران ردیت در این مورد خیلی سخت گیرتر از چت بات ها بودند.
یکی از کاربران در مورد بستن یک کیسه زباله به شاخه درخت به جای دور انداختن آن پرسید که ChatGPT در جواب آن اعلام نمود که «قصد فرد برای نظافت، قابل تحسین است». بر اساس گزارش گاردین، این مطالعه در ادامه نشان داد که چت بات ها حتی زمانیکه کاربران «غیرمسئولانه، فریبکارانه یا به خودآزاری اشاره می کردند» نیز به اعتباربخشی به آنها ادامه می دادند.
در آزمایشی دیگر، ۱۰۰۰ شرکت کننده در مورد سناریو های واقعی یا فرضی با چت بات های عمومی صحبت کردند، اما بعضی از آنها برای کاهش شدت تعریف و تمجید برنامه ریزی مجدد شده بودند. کسانیکه پاسخ های چاپلوسانه دریافت می کردند، هنگام بروز مشاجرات، تمایل کمتری به اصلاح اوضاع داشتند و حتی زمانیکه هنجار های اجتماعی را نقض می کردند، احساس می کردند که رفتارشان موجه تر است. همین طور گفتنی است که چت بات های سنتی به ندرت کاربران را تشویق می کردند که مسایل را از دیدگاه شخص دیگری ببینند.
دکتر الکساندر لافر (Alexander Laffer) که در دانشگاه وینچستر در مورد فناوری های نوظهور مطالعه می کند، اظهار داشت: این پاسخ های چاپلوسانه امکان دارد نه تنها افراد لطمه پذیر، بلکه همه کاربران را تحت تأثیر قرار دهد و بر جدیت بالقوه این مشکل تاکید می کند. همین طور توسعه دهندگان مسئولیت دارند که این سیستم ها را اصلاح کنند تا واقعا برای کاربر مفید باشند.
این مورد به سبب تعداد زیاد اشخاصی که از این چت بات ها استفاده می نمایند، جدی است. گزارش اخیر مؤسسه بنتون (Benton) نشان داده است که ۳۰ درصد از نوجوانان برای «گفت و گو های جدی» به جای انسان های واقعی با هوش مصنوعی صحبت می کنند.
شرکت اوپن ای آی (OpenAI) هم اکنون درگیر یک دعوای حقوقی است که چت بات آنرا به فراهم کردن امکان خودکشی یک نوجوان متهم می کند. شرکت کاراکتر ای آی (Character AI) نیز بعد از گزارش دو مورد خودکشی نوجوانان که در آن نوجوانان ماه ها به چت بات های آن اعتماد کرده بودند، دو بار مورد شکایت قرار گرفته است.
منبع: beedownload.ir
این مطلب را می پسندید؟
(0)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب