در تحقیق جدید، محققان تهدیدات ناشی از سوءاستفاده عمدی، سهوی یا بی‌ملاحظه از هوش مصنوعی (AI) و هوش عمومی مصنوعی (AGI) را برجسته کردند. علاوه بر این، آنان در مورد پیامدهای جدی عدم پیش‌بینی و تطبیق با تحول مبتنی بر هوش مصنوعی در جامعه بحث کردند.

به گزارش مدیکال نت، محققان سه راه را توصیف کردند که هوش مصنوعی می‌تواند موجودیت انسان را تهدید کند؛ اول، هوش مصنوعی می‌تواند فرصت‌هایی را برای دستکاری افراد افزایش دهد. در چین و ۷۵ کشور دیگر، دولت در حال گسترش نظارت مبتنی بر هوش مصنوعی است. هوش مصنوعی به سرعت حجم عظیمی از داده‌های شخصی از جمله محتوای ویدیویی گرفته شده توسط دوربین‌های مستقر در مکان‌های عمومی را پاکسازی، سازماندهی و تجزیه و تحلیل می‌کند. در حالی که این مورد می‌تواند به مقابله با اقدامات تروریستی کمک کند که کاربرد مفیدی است اما از جنبه منفی، این داده‌ها می‌تواند به افزایش قطبی شدن و دیدگاه‌های افراطی کمک کند.

هوش مصنوعی می‌تواند به ایجاد یک زیرساخت بازاریابی شخصی‌سازی شده عظیم و قدرتمند برای دستکاری رفتار مصرف‌کننده و ایجاد درآمد تجاری برای رسانه‌های اجتماعی کمک کند. شواهد تجربی نشان می‌دهد که در انتخابات ریاست‌جمهوری ایالات‌متحده در سال ۲۰۱۶، احزاب سیاسی از ابزارهای هوش مصنوعی برای دستکاری باورهای سیاسی و رفتار رأی‌دهندگان استفاده کردند.

سیستم اعتبار اجتماعی چین به‌طور خودکار افراد را از دسترسی به خدمات بانکی و بیمه محروم می‌کند، جریمه می‌گیرد و مردم را از سفر و فرستادن فرزندانشان به مدارس بر اساس تجزیه و تحلیل تراکنش‌های مالی، سوابق پلیس و روابط اجتماعی برای ارزیابی رفتار فردی منع می‌کند.

هوش مصنوعی کاربردهای گسترده‌ای در سیستم‌های نظامی و دفاعی دارد که موجب پیشرفت‌هایی در حوزه سیستم‌های تسلیحات خودکار مرگبار شده است و تهدید دوم را موجب می‌شود. این سلاح‌های خودمختار می‌توانند اهداف انسانی را بدون کنترل انسان بر روی آن‌ها مکان‌یابی، تشخیص بصری و هدف‌گیری کنند که این موضوع آنها را به سلاح‌های کشتار جمعی بدیع و مرگبار تبدیل می‌کند.

عناصر اخلالگر، مانند سازمان‌های تروریستی، می‌توانند تسلیحات خودکار مرگبار را که در اندازه‌ها و اشکال مختلف وجود دارد، به‌طور ارزان به تولید انبوه برسانند و آنها را برای کشتن در مقیاس انبوه تنظیم کنند. برای مثال، تجهیز میلیون‌ها پهپاد کوادکوپتر، دستگاه‌های کوچک و متحرک با مواد منفجره، شناسایی بصری و توانایی‌های ناوبری مستقل و برنامه‌ریزی شده برای کشتن بدون نظارت انسان امکان‌پذیر است.

سوم اینکه، استقرار گسترده ابزارهای مبتنی بر فناوری هوش مصنوعی می‌تواند منجر به از دست دادن ده‌ها تا صدها شغل در دهه‌های آینده شود. با این حال، استقرار گسترده ابزارهای هوش مصنوعی تا حد زیادی به تصمیمات سیاستی دولت‌ها و جامعه و سرعت توسعه هوش مصنوعی، رباتیک و سایر فناوری‌های مکمل بستگی دارد.

با این وجود، تأثیر خودکاری مبتنی بر هوش مصنوعی برای افرادی که در مشاغل کم مهارت در کشورهای با درآمد پایین و متوسط مشغول به کار هستند، بدترین خواهد بود. در نهایت، بخش‌های بالای نردبان مهارتی نیروی کار جهانی، از جمله افرادی که در کشورهای پردرآمد زندگی می‌کنند، در امان نخواهد ماند.

برای دهه‌های متمادی، انسان‌ها رویای ماشین‌هایی را در سرداشتند و دنبال می‌کردند که از ما باهوش‌تر، آگاه‌تر و قدرتمندتر هستند. این منجر به توسعه هوش عمومی مصنوعی شده است، ماشین‌های نظری مبتنی بر هوش مصنوعی که کدهای خود را یاد می‌گیرند و به‌طور مستقیم بهبود می‌بخشند و شروع به توسعه اهداف خود می‌کنند.

پس از اتصال آنها به دنیای واقعی، یعنی از طریق ربات‌ها، سلاح‌ها، وسایل نقلیه یا سیستم‌های دیجیتال، تصور یا پیش‌بینی اثرات و نتیجه هوش عمومی مصنوعی با قطعیت دشوار می‌شود. با این حال، از روی عمد یا غیر از آن، این ماشین‌ها می‌توانند به انسان‌ها آسیب برسانند و آنان را تحت سلطه خود درآورند. بر این اساس، در یک نظرسنجی اخیر که در میان اعضای جامعه هوش مصنوعی انجام شد، ۱۸ درصد از شرکت‌کنندگان این نگرانی را مطرح کردند که توسعه هوش عمومی مصنوعی ممکن است از نظر وجودی فاجعه‌بار باشد.

علاوه بر این، محققان تاکید کردند: در حالی که هوش مصنوعی پتانسیل ایجاد انقلابی در مراقبت‌های بهداشتی را با بهبود تشخیص و کمک به توسعه درمان‌های جدید دارد، برخی از کاربردهای آن می‌تواند مضر باشد. برای مثال، بیشتر سیستم‌های هوش مصنوعی روی مجموعه داده‌هایی آموزش می‌بینند که در آن جمعیت‌هایی که در معرض تبعیض هستند کمتر نشان داده می‌شوند.

با توجه به این مجموعه داده ناقص و مغرضانه، یک پالس اکسیمتر(دستگاهی برای سنجش غیر تهاجمی اکسیژن موجود در خون) مبتنی بر هوش مصنوعی، سطح اکسیژن خون بیماران با پوست تیره‌تر را بیشتر تخمین زد. به‌طور مشابه، سیستم‌های تشخیص چهره جنسیت افراد با پوست تیره‌تر را به اشتباه طبقه‌بندی می‌کنند.

نتیجه‌گیری

جامعه پزشکی و بهداشت عمومی باید در مورد خطرات و تهدیدات ناشی از هوش مصنوعی هشدار دهند، مشابه آنچه پزشکان بین‌المللی برای پیشگیری از جنگ هسته‌ای استدلال‌های مبتنی بر شواهد را در مورد تهدید جنگ هسته‌ای ارائه کردند.

مداخله احتمالی دیگر می‌تواند مطمئن شدن از کنترل و موازنه کافی برای هوش مصنوعی باشد که مستلزم تقویت سازمان‌های منافع عمومی و دموکراسی است سپس هوش مصنوعی به وعده خود برای سودمندی بشر و جامعه عمل خواهد کرد.

مهمتر از همه، حمایت مبتنی بر شواهد برای تغییر ریشه‌ای سیاست‌های اجتماعی و اقتصادی در دهه‌های آینده ضرورت دارد. به عبارت دیگر، ما باید آماده‌سازی نسل‌های آینده خود را برای زندگی در دنیایی آغاز کنیم که در آن نیروی انسانی دیگر برای تولید کالاها و خدمات مورد نیاز نخواهد بود زیرا هوش مصنوعی سناریوی کار و اشتغال را به‌طرز چشمگیری تغییر خواهد داد.

یافته‌های این تحقیق در مجله سلامت جهانی BMJ منتشر شده است.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *