|
|
امروز: جمعه ۰۲ آذر ۱۴۰۳ - ۰۴:۲۰
کد خبر: ۳۶۸۱۹۱
تاریخ انتشار: ۲۱ تير ۱۴۰۲ - ۱۵:۴۴
پیچای این اظهارات را در خلال گفتگو در برنامه «۶۰ دقیقه» CBS بیان کرد و به اسکات پلی(Scott Pelley) مصاحبه کننده‌ی برنامه گفت که گوگل برای جلوگیری از سوء استفاده، محدودیت‌هایی برای هوش مصنوعی بارد(Bard) خود قائل شده است.

مدیر عامل شرکت گوگل در مورد ویدئوهای «دیپ فیک»(جعل عمیق) هوش مصنوعی هشدار داده و گفته که می‌تواند آسیب‌های زیادی ایجاد کند و گوگل عمدا قابلیت‌های عمومی هوش مصنوعی بارد را محدود می‌کند.

به گزارش ایسنا و به نقل از فاکس‌بیزنس،  ساندار پیچای(Sundar Pichai)، مدیر عامل گوگل، زنگ خطر را در مورد خطرات استفاده از هوش مصنوعی برای ایجاد ویدیوهای جعلی از چهره‌های شناخته شده به صدا درآورد. کاری که به گفته او به زودی «آسان» خواهد شد.

پیچای این اظهارات را در خلال گفتگو در برنامه «۶۰ دقیقه» CBS بیان کرد و به اسکات پلی(Scott Pelley) مصاحبه کننده‌ی برنامه گفت که گوگل برای جلوگیری از سوء استفاده، محدودیت‌هایی برای هوش مصنوعی بارد(Bard) خود قائل شده است.

پیچار به پلی گفت: با استفاده از هوش مصنوعی می‌توان به راحتی یک ویدئو ایجاد کرد که در آن اسکات چیزی می‌گوید، یا من چیزی می‌گویم که هرگز نگفته‌ایم و این می‌تواند دقیق به نظر برسد. اما می‌دانید، در مقیاس اجتماعی می‌تواند آسیب‌های زیادی به همراه داشته باشد.

پلی پرسید که آیا بارد برای جامعه بی‌خطر است؟ پیچای پاسخ داد: روشی که امروزه برای راه‌اندازی آن به کار گرفته‌ایم یعنی عنوان یک آزمایش به صورت محدود، بله همینطور است. اما همه‌ی ما باید در هر مرحله از این راه مسئولیت پذیر باشیم.

پلی پرسید: آهسته آهسته آن را عرضه می‌کنید تا جامعه به آن عادت کند؟ پیچای گفت: این بخشی از آن است. یک بخش نیز به این دلیل است که ما بازخورد کاربران را دریافت می‌کنیم و می‌توانیم قبل از ساختن، قبل از استقرار مدل‌های توانمندتر، لایه‌های ایمنی قوی‌تری ایجاد کنیم.

مدل‌های فعلی هوش مصنوعی در حال حاضر قادر به ساخت تصاویری از چهره‌های شناخته‌شده هستند که تقریبا تشخیص آن‌ها از واقعیت ممکن نیست. هوش مصنوعی در ساخت ویدیو و صدا تاکنون مهارت کمتری داشته است.

در کلیپ‌های صوتی ایجاد شده با هوش مصنوعی، صدای مورد نظر فرد شبیه‌سازی می‌شود اما نسخه‌های فعلی کمی رباتیک و غیرطبیعی به نظر می‌رسند.

پیچای در ادامه گفت که گوگل همیشه پاسخ‌های هوش مصنوعی بارد خود را به طور کامل درک نمی‌کند. او به نمونه‌ای اشاره کرد که در آن به نظر می‌رسید هوش مصنوعی به خود بنگالی می‌آموخت با وجود اینکه برای آن آموزش ندیده بود.

پلی پرسید: شما به طور کامل نمی‌دانید که چگونه کار می‌کند. و با این حال، آن را در جامعه عرضه کرده‌اید؟ پیچای پاسخ داد: بله. اجازه دهید اینطور بیان کنم. فکر نمی‌کنم ما نیز به طور کامل درک کنیم که ذهن انسان چگونه کار می‌کند.
ارسال نظر
نام:
ایمیل:
* نظر:
اخبار روز
ببینید و بشنوید
آخرین عناوین