|
|
امروز: سه‌شنبه ۰۶ آذر ۱۴۰۳ - ۲۳:۱۱
کد خبر: ۱۹۱۴۸۴
تاریخ انتشار: ۱۹ آذر ۱۳۹۶ - ۰۱:۴۰
هوش مصنوعی به صورت آرام و خزنده در حال وارد شدن به جنبه های مختلف زندگی انسان از بهداشت گرفته تا کارهای روزمره است.
 هوش مصنوعی به صورت آرام و خزنده در حال وارد شدن به جنبه های مختلف زندگی انسان از بهداشت گرفته تا کارهای روزمره است.

اگرچه این دستاورد مدرن توسط مردمانی با فرهنگ ها و افکار مختلف مورد استفاده می گیرد، اما به نظر می رسد که توانایی رهایی از قید و بندها و تعصبات سازندگانش را ندارد.

هفته گذشته یکی از محققان مایکروسافت به نام پروفسور «کیت کرافورد» در کنفرانس «سیستم پردازش اطلاعات عصبی» سخنرانی جالبی در مورد تعصبات الگوریتم ها و موارد شکست آنها انجام داد.

از نظر کرافورد واژه «تعصب» در یادگیری ماشینی تعریف ریاضی خاصی داشته و به خطا در برآورد و بازنمایی جوامع اشاره دارد.
او خطاها و آسیب های هوش مصنوعی را به دو گروه تخصیصی و بازنمایی تقسیم کرده و دسته دوم را به مراتب مهم تر می داند.

بر این اساس خطای تخصیص زمانی رخ می دهد که سیستم فرصت یا منبع خاصی را به یک گروه اختصاص داده یا آن گروه را از آن محروم می کند. برای مثال هوش مصنوعی یک بانک ممکن است زنان را از دریافت وام مسکن محروم کند.

از طرف دیگر خطر بازنمایی زمانی رخ می دهد که سیستم با تائید بر کلیشه های موجود باعث می شود گروهی از افراد دارای هویت خاص در موقعیت پایین تری قرار بگیرند.

برای مثال مدتی پیش اپلیکیشن گوگل فوتوز افراد سیاه پوست را به عنوان گوریل برچسب گذاری می کرد و این در حالی است که نژادپرستان از مدت ها قبل از همین اصطلاح برای توهین به سیاه پوستان استفاده می کردند.

علاوه بر این هوش مصنوعی در خطایی واضح لبخند اهالی شرق آسیا را به عنوان چشمک زدن شناسایی می کرد.

او با اشاره به مشکلات موجود تاکید کرد که امروزه از کامپیوترها در زمینه های بزرگتر و مهمتری استفاده می شود و متخصصان این علوم هنگام پیاده سازی هوش مصنوعی باید از منطق بهتری استفاده کنند.
ارسال نظر
نام:
ایمیل:
* نظر:
اخبار روز
ببینید و بشنوید
آخرین عناوین