کد خبر: ۲۸۴۰۹۱
تاریخ انتشار: ۲۹ آبان ۱۳۹۸ - ۱۵:۵۳
این ربات، یکی از ربات‌های خودکار موسوم به "پپر"(Pepper) است که به شرکت "سافت‌بانک"(Softbank) تعلق دارد و تاکنون برای اهداف بسیاری از جمله پاسخ به سوالات در موزه یا راهنمایی مسافران در فرودگاه به کار گرفته شده است. این ربات پس از برنامه‌ریزی توانست جملاتی مانند "باید بگویم که تو بازیکن بسیار بدی هستی" یا "بازی تو در مسابقه، خجالت‌آور بود" را بگوید.
 پژوهشگران "دانشگاه کارنگی ملون"، نوعی ربات ارائه داده‌اند که می‌تواند مانند انسان‌ها، جملات تحقیرآمیز بگوید.

به گزارش ایسنا و به نقل از گیزمودو، تحقیر کردن و صحبت در مورد نکات منفی، به ابزاری کارآمد در ورزش‌ها، بازی‌ها و اهداف رقابتی برای برخی افراد تبدیل شده است. ایده بسیاری از افراد این است که صحبت‌های تحقیرآمیز فقط میان دو انسان صورت می‌گیرند اما پژوهشگران "دانشگاه کارنگی ملون" (CMU) با ارائه یک فناوری جدید، این ایده را نقض کرده‌اند. آنها رباتی ارائه داده‌اند که پس از برنامه‌ریزی می‌تواند مانند انسان‌ها، سخنان تحقیرآمیز بگوید.

این ربات، یکی از ربات‌های خودکار موسوم به "پپر"(Pepper) است که به شرکت "سافت‌بانک"(Softbank) تعلق دارد و تاکنون برای اهداف بسیاری از جمله پاسخ به سوالات در موزه یا راهنمایی مسافران در فرودگاه به کار گرفته شده است. این ربات پس از برنامه‌ریزی توانست جملاتی مانند "باید بگویم که تو بازیکن بسیار بدی هستی" یا "بازی تو در مسابقه، خجالت‌آور بود" را بگوید.

جملات پپر طی آزمایش صورت گرفته روی انسان‌ها، نتایج امیدوارکننده‌ای به همراه نداشت. پژوهشگران، پپر را روی ۴۰ شرکت‌کننده آزمایش کردند که می‌دانستند ربات برای گفتن جملات تحقیرآمیز برنامه‌ریزی شده است. نتایج آزمایش نشان داد که شرکت‌کنندگان، با وجود صحبت‌های پپر هم بهبودی در بازی نداشته‌اند.

این پژوهش نشان داد که صحبت‌های تحقیرآمیز رباتی مانند پپر، لزوما نتیجه مثبتی ندارند. همچنین، این پژوهش ثابت می‌کند که ممکن است روزی ربات‌ها و یا حتی دستیارهای صوتی مبتنی بر هوش مصنوعی بتوانند عملکرد انسان‌ها را داشته باشند و بر تصمیم‌گیری و سلامت روحی آنها اثر بگذارند.

از سوی دیگر، این امکان وجود دارد که ربات‌ها با پاسخ به نظرات یا سوالات انسان‌ها، واقعا برای بهبود سلامت روانی آنها مفید باشند و نهایتا با گفتن جملات تشویق‌آمیز، به همراهان خوبی برای انسان‌ها تبدیل شوند.

با وجود همه این نکات مثبت، اگر دستیار شخصی یا هوش مصنوعی خودکار، به سوی اهدافی حرکت کنند که خلاف منافع انسان هستند، احتمال سوء استفاده از نتایج این پژوهش نیز وجود خواهد داشت. برای مثال تصور کنید که یک ربات دستیار خرید در فروشگاه، طوری برنامه‌ریزی شود که مشتریان را به سوی خرید کالاهای گران‌تر هدایت کند و احساس ناخوشایندی را در مورد خرید کالاهای ارزان‌تر به آنها انتقال دهد.

نهایتا می‌توان گفت که شاید نحوه پاسخ یک ربات یا سیستم هوش مصنوعی به انسان و همچنین احساسات و عبارات مورد استفاده آن بتوانند بسیار مهم‌تر از دقت در درک و بازخورد آن باشند.

این پژوهش، در نشست بین‌المللی "IEEE" ارائه شد.
ارسال نظر
نام:
ایمیل:
* نظر:
اخبار روز
ببینید و بشنوید
آخرین عناوین