|
|
امروز: جمعه ۰۲ آذر ۱۴۰۳ - ۰۹:۵۹
کد خبر: ۲۰۱۴۲۸
تاریخ انتشار: ۲۳ بهمن ۱۳۹۶ - ۰۷:۴۰
دیگر تردیدی وجود ندارد که عصر انقلابی فناوری هوش مصنوعی آغاز شده و در همین مدت چنان ابعاد و کاربردهایش گسترش یافته که نمی توان در مورد عمق نفوذ آن و قابلیت هایش در یک دهه آینده و بعدتر از آن با قاطعیت اظهار نظر کرد.
 دیگر تردیدی وجود ندارد که عصر انقلابی فناوری هوش مصنوعی آغاز شده و در همین مدت چنان ابعاد و کاربردهایش گسترش یافته که نمی توان در مورد عمق نفوذ آن و قابلیت هایش در یک دهه آینده و بعدتر از آن با قاطعیت اظهار نظر کرد.

هوش مصنوعی می تواند کیفیت زندگی ما را به شکل شگفت انگیزی بهبود ببخشد و کمک کند تا درک تازه ای از ناشناخته های عالم هستی به دست بیاوریم. اما از دیگر سو بسیاری از چهره های مطرح عرصه تکنولوژی نگران رهاسازی این فناوری و گسترش بی محابای آن هستند.
ساندار پیچای مدیرعامل خوش فکر کمپانی گوگل اخیراً در یک مصاحبه هوش مصنوعی را به «آتش» تشبیه کرده بود. یعنی چیزی که هم می تواند بسیار مخرب و خطرناک باشد و هم تصور ادامه زندگی بدون آن واقعاً دشوار است. بشریت ریسک استفاده از آتش را پذیرفت و در کنار بهره مندی از مزایایش تاوان آن را نیز داد. آما آیا بالاخره روزی آتش هوش مصنوعی نیز دامان بشریت را خواهد گرفت؟

خیزش ماشین ها؛ مسئله این نیست
پیش از آن که به سراغ هر حرفی برویم باید مشخص کنیم که منظور پیچای از تشبیه فناوری هوش مصنوعی به آتش هیچ ارتباطی با یک پایان غم انگیز آخر الزمانی که در آنها ماشین ها به هوش مطلق رسیده، بر علیه انسان ها قیام کرده و آنها را به بردگی می گیرند نمی شود.
مسئله اصلی این است که اصولاً تکیه زیاد و وابسته سازی بیش از حد زندگی انسان به یک فناوری -که هنوز همه جنبه های آن به خوبی شناخته نشده- می تواند یک ریسک و تهدید به حساب بیاید. این دیدگاه فارغ از فرضی است که در آن امکان دستیابی یک ماشین به خودآگاهی با کمک هوش مصنوعی وجود دارد.
شوراندن ماشین ها علیه بشریت هم می تواند تهدید زا باشد
پیشرفت پر شتاب یادگیری ماشین که منجر به افزایش مهارت های یک هوش مصنوعی به صورت تصاعدی می شود، در نهایت منجر به تولید کامپیوترهایی خواهد شد که قابلیت هایی کاملاً فراتر از انسان ها دارند.

ماشین های امروزی می توانند هزاران برابر سریع تر از ما حجم بسیار عظیمی از داده ها را تحلیل و رفتار خود را برای افزایش کارایی در یادگیری و وفق یافت با شرایط جدید تغییر دهند. از این منظر باید گفت که جنبه انسانی کامپیوترها در تطابق پذیری بیشتر از ماست. نگران کننده تر آن که این جنبه هر میزان که بارزتر و توسعه یافته تر بشود، توان انسان برای درک ساز و کار تصمیم گیری ماشین ها کاهش می یابد و ممکن است روزی برسد که ما دیگر قادر به پیش بینی و نظارت بر نتایج خروجی از تحلیل داده ها توسط رایانه ها نباشیم.

ساندار پیچای مدیر عامل گوگل:
«هوش مصنوعی یکی از مهمترین چیز هایی است که انسان در حال حاضر روی آن کار می کند. اهمیت آن از کشف آتش یا الکتریسیته نیز بالاتر است. هوش مصنوعی ظرفیت آن را دارد که بزرگترین پیشرفت های ممکن را برای ما رقم بزند... اما ما می بایست بر جنبه های منفی آن نیز فائق بیاییم.»

همان طور که پیش تر گفتیم عده زیادی نگران بیش از حد هوشمند شدن ماشین ها و شورش احتمالی آنها بر علیه خودمان هستند، اما تهدیدی حتمی تر و نزدیک تر نیز وجود دارد. این که هوش مصنوعی حتی اگر مطیع و رام باقی بماند، باز هم اسلحه ای قدرتمند خواهد بود که در دست های نا اهلان می تواند خسارت هایی بزرگ را به بار بیاورد.

یکی از اصلی ترین مولفه های قدرت در آینده امکان تحلیل موثر و سریع ابر داده هاست. کاری که هوش مصنوعی و یادگیری ماشین هر روز در آن خبره تر می شوند. بدین سان دولت ها می توانند کنترل و نظارت خود روی شهروندانشان را افزایش داده و به شکل موثرتری به محدود سازی حریم های خصوصی اقدام نمایند. افکار سنجی و تحلیل و پیش بینی رویکردهای سیاسی و هدایت افکار عمومی دیگر جنبه هایی است که می بایست از بابت آنها نگران بود.

کمپانی های بزرگ می توانند تحقیقات خود را هدفمندتر کرده و ریسک تجاری را پایین تر بیاورند. به طور حتم همین ابزار نیز می تواند روزی در اختیار جنایتکاران و تروریست ها قرار بگیرد.
نتیجه این که نگرانی از پیشرفت سریع هوش مصنوعی بیشتر از آن که ناشی از خطر بالقوه ماشین های فوق پیشرفته باشد، ناشی از قدرتی است که این ماشین ها در کنترل انسان ها ایجاد می کنند. این دقیقاً همان هشداری است که افرادی چون استیفن هاوکینگ و ایلان ماسک مدت هاست آن را مطرح ساخته اند.
یکی دیگر از خطراتی که وابستگی بیش از حد به فناوری یادگیری ماشین می تواند به دنبال داشته باشد مربوط به نحوه نتیجه گیری ها است. هرقدر که نقش انسان در تولید داده های خروجی یا تصمیم سازی ماشین های بهره مند از هوش مصنوعی کاهش یابد، پیش بینی و یافتن عیب های احتمالی نیز دشوارتر می شود.

نتایج می تواند توسط برخی خطاها که در عمق ذهن مصنوعی ماشین های هوشمند -به صورت تصادفی یا ناشی از داده های ورودی غلط- وجود دارد دستخوش تغییر شوند. یافتن چنین خطاهایی با پیچیده تر شدن الگوریتم های تحلیلی دشوارتر و در نهایت نا ممکن خواهد شد. تکیه مطلق روی این چنین نتایج نامطمئنی می تواند عواقب ناگواری به دنبال داشته باشد.

این تازه در صورتی است که احتمال بسیار قویِ دستکاری عمدی الگوریتم های یادگیری ماشین به جهت خرابکاری یا نیل به اهداف خاص را در نظر نگیریم. سامانه هوشمند مدیریت ترافیک شهری را در نظر بگیرید که در اختیار مجموعه ای از الگوریتم های معیوب یا دستکاری شده باشد.

اینجا با دوگانه ای مواجه هستیم که حفظ تعادل میان دو قطب آن ناممکن و یا واقعاً دشوار است. این که ماشین ها برای هوشمندتر شدن نیاز به پیچیده تر شدن دارند و از آن طرف هوش مصنوعی پیچیده تر به معنی کاهش قابلیت رصد شدن است.

مخلوقی که همچون خالقش فکر می کند
علی رغم همه نگرانی هایی که به آنها اشاره شد، مدیر عامل گوگل تا حدود زیادی اطمینان دارد که انسان در نهایت قادر خواهد بود با کمترین خسارت از مزایای متعدد فناوری مورد بحث در بهبود زندگی خود استفاده کند. از دیدگاه او شاید در مواردی چون حل معضل تغییرات آب و هوایی هیچ راه حل دیگری جز هوش مصنوعی در پیش روی ما وجود نداشته باشد.
او در عین حال روی اهمیت رسیدن به یک توافق عمومی بر سر مشکلاتی که انسان ها می بایست در حل آنها از این تکنولوژی استفاده کنند تاکید دارد. چنین بینشی کاملاً شرافتمندانه است، اما در واقع نقش نفوذ میل و گرایش های درونی انسان ها را در نظر نمی گیرد.

نکته اساسی اینجاست که فناوری یادگیری ماشین هرقدر هم که پیشرفته باشد، باز هم بر پایه داده هایی شکل خواهد گرفت که ما انسان ها در اختیارش قرار می دهیم. مفاهیمی مانند «درست و غلط» یا «هنجار و ناهنجار» تا حدود زیادی برگرفته از دیدگاه ها و جهان بینی ما انسان ها هستند.
بنابراین ماشین های هوشمند آینده مخلوقاتی خواهند بود که در کنار حقایق علمی، منعکس کننده باورهای خالقین خود نیز خواهند بود. تفاوت میان انسان ها فقط منجر به تفاوت در گزاره های اولیه ذهنی نمی شود، بلکه می تواند روش های حل مسئله نیز دچار تشتت و چند دستگی نماید.

نتیجه این که به نظر می رسد ماشین های آینده نیز همانند انسان ها خروجی های متفاوتی را بر اساس داده های یکسان ارائه دهند. افزایش دیدگاه های مختلف خود منجر به پیچیده تر شدن روندها خواهد شد و دنیای ما همین حالا و بدون عقل های مصنوعی نیز از این جهت پیچیده هست.

ما قرار است چطور در مقابل تحلیل ها یا تصمیم های صادر شده از هوش مصنوعی واکنش نشان دهیم، اگر که آنها با باورهای اخلاقی و اجتماعی خود در تناقض ببینیم؟ این شاید مهمترین چالش پیش روی ماست که می بایست قبل از سپردن آینده دنیای خود به دست رایانه های فوق هوشمند به آن پاسخ دهیم.

شاید چنین بحث هایی در حوزه درمان سرطان یا بهبود عملکرد سفینه های فضایی هرگز مطرح نشود، اما وقتی بحث به حوزه رفع مشکلات و معضلات جهانی و به خصوص چالش هایی که جوامع انسانی به صورت مستقیم در آنها دخیل هستند برسد، سوال ها شروع به مطرح شدن می کنند.
اینجاست که پای بحث های عمیق تری چون فلسفه، ایدئولوژی و مذهب نیز به میان خواهد آمد. سوالاتی اساسی وجود دارند که پیش از پرورش عقل های دیجیتالی می بایست به آنها پاسخ دهیم، وگرنه ظهور ایدئولوژی های جدید و حتی مذاهب تازه دیجیتالی منجر به حل هیچ مشکلی نخواهد شد.

آتشی که می سوزد یا آتشی که می سازد؟
در کتاب ادیسه هومر جمله ای جالب وجود دارد که بی ارتباط با وضع فعلی و آینده فناوری هوش مصنوعی نیست. هومر می نویسد: «ذات شمشیر خود تحریک کننده اعمال خشونت آمیز است.»

وقتی به ظاهر مسئله نگاه کنیم، یادگیری ماشین و هوش مصنوعی پتانسیلی فوق العاده برای بهبود شرایط زندگی ما و حل بسیاری از معضلات بزرگ حیات بشری دارد. البته قرار گرفتن آن در دست افراد ناشایست می تواند منجر به بروز مشکلات حتی بزرگتر و پیچیده تر گردد.

اگر یک لایه پایین تر رویم، قدرت ابر داده ها و افزایش نفوذ هوش مصنوعی به عنوان ذهنی که نمی توان به تصمیمات و داده های آن با اطمینان نگاه کرد، خود می تواند منجر به بروز چالش های جدید در حوزه هایی مثل اقتصاد، سیاست و اخلاقیات شود.
اگر کمی منطقی باشیم، نباید نگرانی چندانی از بابت ظهور ربات های نابودگر به دل راه دهیم. بلکه به مانند تمام قرن های گذشته، بیش از هر چیزی باید از تمایلات ذهنی انسان ها و قدرت تخریبگر تفاوت ها بترسیم.

به بیان دیگر، انسان ها هنوز و احتمالاً برای همیشه بزرگترین تهدید برای حیات خود باقی خواهند ماند و فناوری های جدید، هر قدر هم پیشرفته باز هم ابزاری با کاربردهای دوگانه و در کنترل ما باقی می مانند.
ارسال نظر
نام:
ایمیل:
* نظر:
اخبار روز
ببینید و بشنوید
آخرین عناوین