ابراز نگرانی سناتور‌ها از به‌کارگیری هوش مصنوعی در حملات بیولوژیکی

سناتور‌های آمریکا در مورد احتمال استفاده بدخواهانه از هوش مصنوعی ابراز نگرانی کرده و بر امکان استفاده از این فناوری برای ایجاد یک حمله بیولوژیکی تمرکز کردند.

به گزارش خبرنگار خبرگزاری علم و فناوری آنا به نقل از رویترز، سناتور‌های دموکرات و جمهوری خواه روز سه شنبه در مورد احتمال استفاده بدخواهانه از هوش مصنوعی ابراز نگرانی کرده و بر امکان استفاده از این فناوری برای ایجاد یک حمله بیولوژیکی تمرکز کردند.

داریو آمودی، مدیر اجرایی شرکت هوش مصنوعی آنتروپیک، در جلسه‌ای در برابر یکی از کمیته‌های فرعی کمیته قضایی سنا گفت که هوش مصنوعی می‌تواند به عوامل بدخواه غیر ماهر در توسعه سلاح‌های بیولوژیکی کمک کند.

آمودی که شرکتش با متخصصان امنیت زیستی در مورد مطالعه خطرات زیستی ناشی از هوش مصنوعی همکاری می‌کند، می‌گوید: برخی از مراحل در تولید زیستی شامل دانشی است که در گوگل یا کتاب‌های درسی یافت نمی‌شود و نیاز به سطح بالایی از تخصص دارد.

آمودی گفت که هوش مصنوعی هنوز نمی‌تواند به ساخت سلاح‌های بیولوژیکی کمک کند و آن را یک خطر میان مدت خواند.

او گفت: با فراهم کردن امکان انجام حملات بیولوژیکی در مقیاس بزرگ، ما معتقدیم که این یک تهدید جدی برای امنیت ملی ایالات متحده است.

ریچارد بلومنتال، رئیس کمیته فرعی که یک دموکرات است، نیز از این موضوع ابراز نگرانی کرد.

او در سخنان آغازین خود گفت: متخصصان سازنده این سیستم‌ها نسبت به انقراض انسان هشدار می‌دهند. هدف این جلسه حرکت از اصول کلی، به توصیه‌های خاص و ایجاد زمینه برای قانون گذاری است.

سناتور جاش هاولی، که یک جمهوری خواه است نیز، خواستار حفاظت‌هایی شد که به کمک آن اطمینان حاصل کنند که این فناوری جدید واقعا برای مردم آمریکا خوب است.

این جلسه چند روز پس از تعهد داوطلبانه شرکت‌های هوش مصنوعی از جمله اوپن ای‌آی، آلفابت و متا که  به کاخ سفید مبنی بر انجام اقداماتی مانند واترمارک کردن محتوای تولیدشده توسط هوش مصنوعی برای کمک به ایمن‌تر کردن این فناوری، برگزار شد.

از زمانی که هوش مصنوعی مولد که از داده‌ها برای ایجاد محتوای جدید مانند نثر انسانی چت بات‌ها استفاده می‌کند، در اوایل سال جاری سرتیتر اخبار شد وقانون گذاران در سراسر جهان شروع به بررسی چگونگی کاهش خطرات این فناوری نوظهور برای امنیت ملی و اقتصاد کردند.

دکمه بازگشت به بالا