به گزارش گروه اقتصادی خبرگزاری دانشجو، گوگل اخیراً تغییراتی اساسی در سیاست‌های استفاده از هوش مصنوعی خود ایجاد کرده است. این شرکت رسماً بخش‌های استفاده‌نکردن از هوش مصنوعی در تسلیحات و فناوری‌های نظارتی را از وب‌سایت خود حذف کرده است.

ابتدا واشنگتن پست و بلومبرگ این تغییر را مشاهده کردند. این اتفاق نشان می‌دهد گوگل مسیر متفاوتی در توسعه و به‌کارگیری هوش مصنوعی دنبال می‌کند.

سیاست‌های جدید هوش مصنوعی گوگل چه می‌گوید؟

در نسخه جدید سیاست‌های هوش مصنوعی گوگل، به‌جای تعهد به توسعه‌ندادن هوش مصنوعی برای تسلیحات یا نظارت، بر «توسعه و استقرار مسئولانه» تأکید شده است. در این سند جدید، شرکت متعهد شده از نظارت انسانی، ارزیابی دقیق و سازوکار‌های بازخوردی برای همسو شدن با اهداف کاربران و اصول حقوق بشر بین‌المللی استفاده کند.

در نسخه قبلی، گوگل اعلام کرده بود ابزار‌های هوش مصنوعی را برای استفاده در سلاح‌ها یا فناوری‌هایی که مستقیم به انسان‌ها آسیب می‌زنند، طراحی یا اجرا نخواهد کرد. همچنین گفته بود از توسعه فناوری‌های نظارتی که مغایر با استاندارد‌های بین‌المللی باشد، خودداری می‌کند.

گوگل در پستی وبلاگی که «دمیس هسابیس»، مدیرعامل دیپ‌مایند، و «جیمز مانیکا»، معاون ارشد تحقیقات و فناوری گوگل، منتشر کردند، توضیح داده رشد هوش مصنوعی، به‌عنوان فناوری با کاربرد عمومی، این تغییرات را ضروری کرده است. آنها تأکید کردند کشور‌ها و شرکت‌های دارای ارزش‌های مشترک باید برای توسعه هوش مصنوعی که از مردم محافظت می‌کند، رشد جهانی را ارتقا می‌دهد و امنیت ملی را حمایت می‌کند همکاری کنند.

سوابق گوگل در همکاری با ارتش و دولت‌ها

سال ۲۰۱۸، گوگل پس از اعتراضات گسترده داخلی، از پروژه ماون (Project Maven) خارج شد؛ پروژه‌ای که شامل ارائه نرم‌افزار هوش مصنوعی به وزارت دفاع آمریکا برای تحلیل ویدیو‌های پهپاد‌ها بود. آن زمان، ده‌ها کارمند استعفا دادند و هزاران نفر در دادخواستی اعتراضی شرکت کردند، اما از سال ۲۰۲۱، گوگل مجدد به‌دنبال قرارداد‌های نظامی رفت و برای قرارداد پردازش ابری وزارت دفاع آمریکا (JWCC) پیشنهاد داد.

حذف تعهدات پیشین گوگل درباره استفاده‌نکردن از هوش مصنوعی در تسلیحات و نظارت نشان‌دهنده تغییری بزرگ در سیاست‌های این شرکت است. این تغییرات احتمالاً به‌دلیل فشار‌های رقابتی، نیاز به همکاری‌های دولتی و نظامی و اهمیت نقش هوش مصنوعی در آینده امنیت جهانی انجام شده است. این سؤال مطرح می‌شود که این تصمیم ارزش‌های اخلاقی هوش مصنوعی را تضعیف خواهد کرد یا گوگل همچنان می‌تواند به تعهداتش در زمینه حقوق بشر پایبند بماند؟

source

توسط chaarcharkh.ir