|
|
امروز: جمعه ۰۲ آذر ۱۴۰۳ - ۱۴:۰۱
کد خبر: ۲۱۶۵۲۰
تاریخ انتشار: ۱۵ خرداد ۱۳۹۷ - ۰۸:۲۰
متخصصان معتقدند، هوش مصنوعی (AI) و ربات ها می توانند به گونه ای برنامه ریزی شوند تا عواطف و احساسات انسان را درک کنند؛ این فرآیند در حقیقت، درجه ای از شبیه سازی است.
 متخصصان معتقدند، هوش مصنوعی (AI) و ربات ها می توانند به گونه ای برنامه ریزی شوند تا عواطف و احساسات انسان را درک کنند؛ این فرآیند در حقیقت، درجه ای از شبیه سازی است.

دنیله کرتک (Danielle Krettek)، بنیانگذار Empathy Lab گوگل در کنفرانس Semi Permanent در سیدنی تأکید کرد: کاری که به دنبال انجام آن هستیم، ایجاد برخی تغیرات در دستیار گوگل با هدف برقراری تعامل احساسی با کاربر است؛ به عنوان مثال، وقتی فرد می گوید "احساس افسردگی می کنم"، هوش مصنوعی می تواند در پاسخ بگوید "تو تنها نیستی؛ خیلی ها چنین احساسی دارند".

کرتک معتقد است که نسل بعدی محصولات که با فرمان های صوتی فعال می شوند، تعاملی تر، احساسی تر و قابل اعتمادتر خواهند بود.

ایجاد حس همدلی در ربات ها
به گفته پاسکال مولنبرگز، عصب شناس دانشگاه ملبورن (استرالیا)، یکی از مولفه های همدلی (empathy) به خصوص همدلی عاطفی، زمانی است که احساسات خود را با دیگران به اشتراک می گذاریم؛ مثلا زمانی که در یک فیلم ترسناک، شخصیت اصلی درحال فرار است، شما نیز به عنوان بیننده احساس ترس دارید.
مولنبرگز تأکید کرد: احساساتی که در دیگران می بینیم، در خودمان شبیه سازی می کنیم. هوش مصنوعی (AI) نیز می تواند به گونه ای برنامه ریزی شود تا مثلا احساس درد شما را درک کند، اما خودش واقعا چنین چیزی را احساس نمی کند. در واقع، این فرآیند درجه ای از شبیه سازی است.

آیا به حس همدلی هوش مصنوعی نیاز داریم؟
ران آرکین (Ron Arkin) مدیر آزمایشگاه Mobile Robot در جورجیا تک، درحال بررسی استفاده از همدلی ربات ها برای درمان بیماری پارکینسون است.
در مراحل اولیه بیماری، وضعیتی موسوم به facial masking اتفاق می افتد که در این شرایط، چهره فاقد هرگونه بیان احساسی بوده و صدا نیز توانایی خود را برای بیان احساس از دست می دهد. از آنجاکه بیان احساسات درونی برای بیمار دشوار می شود، فرد مراقب (پرستار)، حس همدلی خود را به مرور از دست می دهد و درنتیجه، کیفیت مراقبت کاهش پیدا می کند.

گروه تحقیقاتی دکتر آرکین به دنبال استفاده از یک ربات همراه هستند که بر ارتباط میان بیمار و فرد مراقب نظارت کرده و درصورت کاهش تعاملات دو طرفه، با برقراری تعامل، این حس همدلی از دست رفته را بار دیگر برقرار می کند.

به گفته دکتر آرکین، این کار نیازمند این است که ربات، مدلی از احساس بیمار و فرد مراقب را داشته باشد. البته این بدان معنا نیست که ربات چنین احساسی را درک می کند؛ درحقیقت، طرف مقابل فکر می کند که ربات نیز همان احساس (ناراحتی، غم، درد) را دارد، درصورتیکه ربات هیچ حس خاصی ندارد.

پروفسور رابرت اسپارو (Robert Sparrow)، استاد دانشگاه موناش (استرالیا) معتقد است: از لحاظ اخلاقی دشوار است که در مورد فریب دادن یک نفر (تظاهر به درک احساس از سوی ربات) نظر داد؛ چراکه تفاوت عمده ای بین داشتن یک زندگی خوب و تلاش برای بهتر کردن حال یک نفر وجود دارد.
ارسال نظر
نام:
ایمیل:
* نظر:
اخبار روز
ببینید و بشنوید
آخرین عناوین