به همان میزان که درمورد مزایا و فواید هوش مصنوعی صحبت شده باید این احتمال نیز داده شود که کاربرانی نیز می‌توانند از این پتانسیل بالا برای اهداف سیاه و منفی استفاده کنند. به تازگی رباتی توسط یک کاربر توسعه داده شده که از دید فنی، یک موجود ترسناک و بدترین هوش مصنوعی متنی منتشر شده عمومی است.

از همان سال‌های اولیه حضور هوش مصنوعی و ربات‌ها در دنیاهای خیالی و سینمایی، همواره دغدغه انسان آن بوده که اگر از AI برای خلق ربات یا بسترهایی جهت اهداف منفی استفاده شود چه کار باید کرد؟

در واقع بشر همواره با این چالش روبروست که گروهی بتوانند هوش مصنوعی یا ربات‌هایی را برای اهداف ناسالم توسعه داده و همین ربات‌ها به موجوداتی علیه نوع بشر تبدیل شوند.

تا به حال تلاش‌هایی جهت وضع قوانین و اقدامات در این زمینه انجام شده ولی آیا یک فرد یا گروه توسعه دهنده با اهداف منفی قبل از انتشار کار خود قابل شناسایی است؟ در ادامه مثالی که توسعه یک توسعه دهنده با تنها استفاده از یک ابزار، خلق شده را به شما معرفی خواهیم کرد.

قبل از خواندن ادامه متن در نظر داشته باشید که این مدل تنها برای نشان دادن پتانسیل منفی هوش مصنوعی توسعه داده شده و شهر سخت‌افزار یا توسعه دهنده آن به هیچ عنوان، انجام اقداماتی این‌چنینی را تأیید یا ترویج نمی‌کنند.

مجله VICE این هفته گزارشی منتشر نموده که در آن شاید یکی از که بدترین مخلوقات نرم‌افزاری نوع بشر به ثبت رسیده است. در گزارش مذکور، کاربری در یوتیوب یک ربات بر پایه هوش مصنوعی را با استفاده از میلیون‌ها پست شبکه اجتماعی ۴chan آموزش داده و سپس ربات‌های بدذاتی که در خروجی این طرح توسعه داده شده را در وب رها نموده و به آن‌ها اجازه داد مستقیماً در صفحه پیام مشخصی در این شبکه پست‌های خود را ارسال کنند.

لازم به ذکر است که پست‌های قربانی از پست‌‎های جدید شبکه ۴chan بوده و به همین دلیل باید به توانایی خلق کامنت توسط ربات‌های مذکور نیز نگاه ویژه داشت. این نشریه گزارش داده که یانیک کیلچر، محقق هوش مصنوعی و یوتیوب، از بیش از سه میلیون رشته (کامنت) ۴chan از بستری نه چندان معروف در این شبکه موسوم به “/pol/” را مورد استفاده قرار داده که حاوی کلمات و کامنت‌های بسیار بد و منفی بوده و در حال حاضر وضعیتی غیرفعال در سایت دارند.

البته به دلیل زشت بودن بیش از حد محتوای خلق شده از به اشتراک گذاری مستقیم آن با شما کاربران معذوریم.

کیلچر از نتایج شگفت‌زده نشد و گفت که ساختن مدلی بر اساس بدترین بدترین‌های اینترنت، به طرز عجیبی ساده و نه چندان پیچیده بوده است:

مدل خلق شده به طرز وحشتناکی خوب بود. این مدل کاملاً ترکیبی از کلمات توهین‌آمیز، نیهیلیسم، ترولینگ و بی‌اعتمادی عمیق به هر اطلاعاتی را که در بیشتر پست‌ها در /pol نفوذ می‌کند، در بر گرفته و به خوبی پیاده نموده است.
۴chan، البته، به نوعی مانند یک بستر چانبی در اینترنت برای آزادی بیان و ناشناس ماندن خلق شده و هر گفت‌وگویی تا زمانی که از نظر فنی قانونی باشد، پیش می رود. کلیچر در توضیح ۲۰ دقیقه ای خود در یوتیوب نیز اینگونه توضیح می‌دهد که «مدل خلق شده کاملاً شرور است، باید به شما هشدار دهم. مثل این است که شما مستقیماً به وب سایت بروید و با کاربران تعامل داشته باشید».

به هر حال باید به این نکته توجه داشت که این مدل تنها برای نمایش قابلیت‌های منفی هوش مصنوعی توسعه داده شده و همچنین تأیید می‌کند با داشتن تخصص کافی، می‌توان چه اعمالی را برای آن برنامه‌ریزی کرد. البته این مدل تنها یک خروجی متنی دارد ولی کلیچر این‌گونه توضیح می‌دهد که امکان بست تصویری مدل با ورودی‌های منفی نیز محتمل است.

نظر شما در مورد پتانسیل‌های منفی هوش مصنوعی چیست؟