|
|
امروز: جمعه ۳۱ فروردين ۱۴۰۳ - ۲۳:۰۹
کد خبر: ۲۰۳۱۹۲
تاریخ انتشار: ۰۴ اسفند ۱۳۹۶ - ۰۸:۰۰
وقتی که در مورد خطرات هوش مصنوعی صحبت می‌کنیم، معمولا تمرکز روی اثرات جانبی ناخواسته است.
 وقتی که در مورد خطرات هوش مصنوعی صحبت می‌کنیم، معمولا تمرکز روی اثرات جانبی ناخواسته است. ما نگرانیم که یک روز تصادفی هوش مصنوعی فوق هوشمند بسازیم و یادمان برود که به آن ضمیری بدهیم؛ یا الگوریتم‌هایی برای محکوم کردن مجرمان به کار می‌بریم که مملو از تعصبات نژادپرستی داده‌های تمرینی‌اش است.

اما این فقط نیمی از داستان است.

آن‌هایی که از قصد می‌خواهند هوش مصنوعی را برای کارهای غیراخلافی، مجرمانه و آسیب‌رسان استفاده کنند چطور؟ احتمال بروز خطر از سوی آن‌ها بیشتر -و حتی زودتر- نیست؟ پاسخ مثبت است، طبق نظر بیش از ده متخصص از انستیتوهایی نظیر «آینده بشر»، «مرکز پژوهش خطرهای موجود» و حتی شرکت غیر انتفاعی «OpenAI» که توسط ایلان ماسک تاسیس شده، جواب مثبت است.

در مقاله‌ای که اخیرا با نام «استفاده مخرب از هوش مصنوعی: پیش‌بینی، جلوگیری و بازدارندگی» منتشر شده، این پژوهشگران و دانشگاهیان در مورد برخی راه‌هایی که ممکن است هوش مصنوعی طی پنج سال آینده از طریق آن به ما ضرر برساند صحبت کرده اند و گفته اند که ما چه کار می توانیم انجام دهیم.

مایلز بروندج یکی از نویسندگان این مقاله از انستیتو آینده بشر به وبسایت ورج گفته که چون هوش مصنوعی می تواند حملات مهلکی به ما وارد کند، ما قطعا نباید وحشت کرده یا امید را کنار بگذاریم.

بروندج می گوید: «من دوست دارم حالت خوشبینانه را در نظر بگیرم که ما می توانیم کارهای بیشتری انجام دهیم. مسئله این است که تصویری تاریک و سیاه نکشیم. راه های دفاع بسیاری وجود دارد که می توانیم توسعه دهیم و چیزهای بسیاری برای یاد گرفتن وجود دارد. فکر نمی کنم که همه‌اش ناامیدی باشد ولی این مقاله را فراخوانی برای اقدام می‌بینم.»

گزارش بروندج و تیم‌هایی که با او همکاری داشته‌اند بسیار وسیع است اما روی چند راه اصلی که هوش مصنوعی می تواند خطرات امنیتی فیزیکی و دیجیتالی ایجاد کند یا اصلا خطرات جدید بسازد متمرکز است.

در این مطلب پنج پیشنهاد هم برای مبارزه با این مشکل آمده از جمله آگاه سازی مهندسین هوش مصنوعی در مورد استفاده های مخرب در تحقیقاتشان و همچنین برقراری گفتمان میان دانشگاهیان و قانون گذاران تا هنگام وقوع جرم، غافل‌گیری پیش نیاید.

بگذارید از خطرات احتمالی شروع کنیم: یکی از مهم‌ترین خطرات آن است که هوش مصنوعی به شکل قابل توجهی هزینه برخی حملات را کاهش می‌دهد و جایگزین نیروی انسانی می‌شود.

برای مثال حملات فیشینگ را در نظر بگیرید که در آن به افراد پیام‌هایی داده می‌شود تا به نوعی از آن طریق اطلاعات حساب‌هایشان را به دست آورند. مثل یک ایمیل از سایت‌های خرید یا ایمیل از بانکی که در آن حساب دارید.

هوش مصنوعی می‌تواند در این حملات، عمده کارها را انجام دهد و بر اساس تحلیل اطلاعات و داده‌های هر فرد، پیام مخصوصی برایش بسازد. یا تصور کنید چت بات‌ها آنقدر پیشرفته شوند که بتوانند نقش دوست نزدیکتان را ایفا کنند و از شما رمز عبور ایمیل‌تان را بگیرند.

این مدل حملات پیچیده به نظر می رسد اما اگر یک بار این نرم افزار ساخته شود، بدون هزینه اضافه می توان آن را بارها و بارها به کار گرفت. ایمیل‌های فیشینگ همین حالا هم بسیار مضر هستند. این ایمیل‌ها مسبب انتشار تصاویر شخصی اشخاص معروف در سال ۲۰۱۴ و لو رفتن ایمیل‌های جان پادستا، از ستاد انتخاباتی هیلاری کلینتون در انتخابات ۲۰۱۶ آمریکا بودند.

لو رفتن ایمیل‌های پادستا نه تنها باعث تغییر نتیجه انتخابات ۲۰۱۶ آمریکا شد، بلکه تئوری‌های توطئه‌ای نظیر پیتزاگیت را رقم زد که نزدیک بود به کشته شدن انسان‌ها منجر شود. حالا تصور کنید یک هوش مصنوعی پیشرفته چه کارها که نمی تواند انجام دهد.

نکته مهم بعدی در این گزارش به افزودن ابعاد جدید به خطرهای فعلی اشاره دارد. همین مثال فیشینگ را در نظر بگیرید. هوش مصنوعی همین حالا هم با گوش دادن به چند دقیقه از صحبت های یک شخص می تواند صدای او را تقلید کند. یا می تواند به صورت همزمان از ویدیوهای موجود استفاده کرده و حرکات صورت و چهره‌تان را جایگزین حرکات صورت یک شخص شناخته شده کند. این گزارش روی خطراتی متمرکز است که طی پنج سال آینده پدید می‌آیند و سریعا در حال تبدیل شدن به یک موضوع اساسی هستند.

و البته یک سری اقدامات ناراحت‌کننده دیگر هم هستند که هوش مصنوعی می‌تواند آن‌ها را تشدید کند. دستکاری‌های سیاسی و پروپاگاندا (مثل دستکاری صدا و تصویر که می تواند مشکلی عظیم باشد)، و همچنین نظارت‌های امنیتی به خصوص وقتی که اقلیت‌ها را هدف قرار دهد.

مثال واضح می تواند چین باشد، کشوری که دوربین‌های امنیتی و تشخیص دهنده چهره‌اش یک منطقه بزرگ که اقلیت مسلمان اویغور در آن زندگی می‌کنند را زیر نظر گرفته است.

در نهایت، این گزارش به خطرات کاملا بدیعی که هوش مصنوعی می تواند ایجاد کند اشاره دارد. نویسنده به برخی سناریوهای ممکن اشاره دارد از جمله قرار دادن بمب در رباتی خدمتکار و انتقال آن به یک وزارت خانه دولتی. ربات با استفاده از قابلیت‌های ویژه خود یک سیاست‌مدار خاص را شناسایی کرده و وقتی که نزدیکش برسد بمب را منفجر می کند.

این مثال به دو پیشرفت اساسی اشاره دارد، یکی بهره گیری از هوش مصنوعی در محصولات فیزیکی و دوم استفاده از فناوری‌های نرم افزاری مثل تشخیص چهره. شاید اشاره به چنین داستان‌هایی اندکی خیالی به نظر برسد اما حقیقت آن است که همین حالا هم شاهد حملات بدیع توسط هوش مصنوعی بوده‌ایم.

فناوری جابه‌جایی چهره این امکان را داده بود تا بدون هیچ حد و مرزی، کاربران چهره افراد مشهور را با چهره بازیگران فیلم‌های غیر اخلاقی جایگزین کنند که باعث جنجال آفرینی بسیاری طی هفته‌های گذشته شد. اگرچه تاکنون این ماجرا قربانی خاصی نگرفته اما کسانی که چنین سوء استفاده‌ای از تکنولوژی می‌کنند قادر خواهند شد تا با ساخت چنین تصاویری از افرادی که می‌شناسند باج گرفته یا باعث آزار و اذیت شوند.

راه حل‌های ارائه شده در این مقاله ساده هستند و عبارتند از:

پژوهشگران حوزه هوش مصنوعی باید آگاه باشند که کارهایشان چطور می‌تواند توسط دیگران مورد سوء استفاده قرار بگیرد
قانون‌گذاران باید از متخصصین در مورد این موضوع آموزه بگیرند
کسانی که روی هوش مصنوعی کار می‌کنند باید از متخصصین حوزه امنیت سایبری برای محافظت از سیستم‌هایشان آموزه بگیرند
باید چارچوب‌های اخلاقی برای هوش مصنوعی ایجاد شده و آن را دنبال کرد
افراد بیشتری باید در این ماجرا دخیل باشند. نه فقط دانشمندان هوش مصنوعی و قانون‌گذاران. بلکه دانشمندان علوم اخلاق، کسب و کارها و عموم مردم

یا به بیان دیگر: کمی گفتمان و کمی کار بیشتر لازم است.
ارسال نظر
نام:
ایمیل:
* نظر:
اخبار روز
ببینید و بشنوید
آخرین عناوین