وب سایت JamaicaGliner نوشت: چگونه یک سیستم هوش مصنوعی آنقدر قدرتمند می شود که خطر امنیتی ایجاد می کند و نباید بدون نظارت دقیق از آن استفاده کرد؟
آنچه برخی از قانونگذاران و حامیان ایمنی هوش مصنوعی را نگران می کند، سطح قدرت محاسباتی است که ممکن است فناوری پیشرفته هوش مصنوعی را قادر به ایجاد یا استقرار سلاح های کشتار جمعی یا انجام حملات سایبری فاجعه آمیز کند.
کسانی که چنین مقرراتی را پیشنویس میکنند تصدیق میکنند که آنها نقطه شروع ناقصی برای تمایز بین سیستمهای تولید هوش مصنوعی فعلی و نسل بعدی هستند که ممکن است قدرتمندتر باشند.
منتقدان این آستانه ها را به عنوان تلاشی از سوی دولت ها برای تنظیم ریاضیات مورد حمله قرار داده اند. به گفته آنها، زمانی که برخی قوانین آستانه ای را بر اساس سرعت محاسباتی تعریف می کنند، سردرگمی اضافه می شود. این به معنای تعداد شناورها در ثانیه است که فلاپ نامیده می شود، در حالی که قوانین دیگر بر اساس تعداد تجمعی شناورها، صرف نظر از اینکه چقدر طول می کشد، است.
فرمان اجرایی که سال گذشته توسط جو بایدن امضا شد بر آستانه 10 تا 26 تکیه دارد. قانون جدید ایمنی هوش مصنوعی کالیفرنیا، که فرماندار گاوین نیوسام تا 30 سپتامبر فرصت دارد تا آن را امضا یا وتو کند، معیار دومی را به این معادله اضافه می کند: ایجاد مدل های هوش مصنوعی ساختاریافته باید حداقل 100 میلیون دلار هزینه داشته باشد.
قانون جامع هوش مصنوعی اتحادیه اروپا نیز عملیات ممیز شناور را اندازه گیری می کند، اما آستانه را ده برابر پایین تر، معادل 10 تا توان 25 تعیین می کند. این قانون شامل برخی از سیستم های هوش مصنوعی موجود می شود. دولت چین همچنین به دنبال اندازه گیری قدرت محاسباتی است تا مشخص کند کدام سیستم های هوش مصنوعی به پادمانی نیاز دارند.
هیچ یک از مدلهای هوش مصنوعی در دسترس عموم اکنون آستانه بالاتر کالیفرنیا را برآورده نمیکنند، اگرچه برخی از شرکتها احتمالاً شروع به ساخت آنها خواهند کرد. در این صورت، آنها باید برخی از جزئیات و تضمینها را با دولت ایالات متحده در میان بگذارند، دولت ایالات متحده از قانون دوران جنگ کره استفاده کرده است تا شرکتهای فناوری را ملزم کند که در صورت ساخت چنین مدلهای هوش مصنوعی به وزارت بازرگانی اطلاع دهند.
*ابزار اندازه گیری
محققان هوش مصنوعی هنوز در حال بحث در مورد چگونگی ارزیابی بهترین قابلیتهای جدیدترین فناوریهای هوش مصنوعی و مقایسه آنها با هوش انسانی هستند. آزمایشهایی وجود دارد که سرعت و دقت هوش مصنوعی را در حل پازل، استدلال منطقی یا پیشبینی آزمایش میکند تا ببیند چقدر به سؤالات افراد از چتباتها پاسخ میدهد.
این اندازهگیریها به ارزیابی اینکه ابزار هوش مصنوعی برای یک کار مشخص چقدر مفید است، کمک میکند، اما هیچ راه سادهای برای دانستن اینکه کدام ابزار به اندازه کافی قادر به ایجاد تهدید برای بشریت است، وجود ندارد.
آنتونی آگویر، فیزیکدان و مدیر اجرایی موسسه آینده زندگی، گفت: «این محاسبه عدد جایگشت به طور کلی به عنوان بهترین ما در این زمینه شناخته می شود. این موسسه از تصویب لایحه 1047 سنای کالیفرنیا و سایر قوانین ایمنی هوش مصنوعی در سراسر جهان حمایت کرده است.
آگویر ادامه داد: «محاسبات ممیز شناور ممکن است تخیلی به نظر برسند، اما در واقع فقط اعدادی هستند که با هم جمع یا ضرب می شوند، و آنها را به یکی از ساده ترین راه ها برای ارزیابی توانایی و ریسک یک مدل هوش مصنوعی تبدیل می کند.
وی توضیح داد: بیشتر کاری که انجام می شود فقط ضرب جداول بزرگ اعداد در یکدیگر است. شما به سادگی می توانید به وارد کردن اعداد در ماشین حساب خود و جمع یا ضرب آنها فکر کنید، و این کاری است که آنها انجام می دهند. 10 تریلیون بار یا صد تریلیون بار.
با این حال، برای برخی از مدیران شرکت های فناوری، این یک معیار بسیار ساده و استاندارد است. سارا هوکر، دانشمند کامپیوتر که بخش تحقیقات غیرانتفاعی شرکت هوش مصنوعی Coherence را اداره میکند، در مقالهای گفت: هیچ مبنای علمی روشنی برای استفاده از چنین معیارهایی به عنوان شاخصهای ریسک وجود ندارد.
وی تاکید کرد که آستانه های ریاضی در حال حاضر کوته بینانه هستند و احتمالاً در کاهش خطرات شکست خواهند خورد.
هوروویتز و شریک تجاری او مارک اندرسون، بنیانگذاران شرکت سرمایه گذاری با نفوذ سیلیکون ولی، از دولت بایدن و همچنین قانونگذاران کالیفرنیا انتقاد کرده اند. آنها معتقدند که مقررات هوش مصنوعی می تواند صنعت نوظهور شرکت های استارت آپی هوش مصنوعی را خفه کند.
هوروویتز استدلال می کند که محدود کردن کارهایی که می توان بر اساس ریاضیات انجام داد منعکس کننده این باور اشتباه است که تعداد انگشت شماری از شرکت های بزرگ مدل های توانمند را تولید خواهند کرد.
*همه چیز خیلی سریع اتفاق می افتد
در پاسخ به این انتقاد، یک سناتور ایالتی کالیفرنیا که از این قانون حمایت کرد، تابستان امسال نامه ای به اندرسن و هوروویتز ارسال کرد و از این لایحه، از جمله آستانه های نظارتی آن دفاع کرد.
سناتور اسکات وینر در نامه می نویسد: «مقررات بزرگتر از 10 به توان 26 راهی واضح برای معافیت از الزامات تست ایمنی است، زیرا بسیاری از مدل هایی که بر اساس شواهد فعلی می دانیم قادر به ایجاد آسیب جدی نیستند.
واینر گفت، مدلهای موجود که بهصورت عمومی منتشر شدهاند «از نظر قابلیتهای بسیار خطرناک آزمایش شدهاند و مشمول این لایحه نمیشوند».
فرمان اجرایی صادر شده توسط واینر و بایدن این اقدام را موقتی می داند و می تواند بعداً اصلاح شود.
یاسین گارنت که در شرکت هوش مصنوعی HuggingFace کار میکند، میگوید: این الگوریتم بسیار مورد احترام قبل از دستور بایدن در سال گذشته بود، اما اکنون در حال منسوخ شدن است.
توسعهدهندگان هوش مصنوعی با مدلهای کوچکتری که به قدرت محاسباتی کمتری نیاز دارند، کارهای بیشتری انجام میدهند، در حالی که مضرات بالقوه محصولات هوش مصنوعی که به طور گسترده استفاده میشوند، نظارت پیشنهادی در کالیفرنیا را تحریک نمیکنند.
به گفته گارنت، برخی از مدلها تأثیر بسیار بیشتری بر جامعه خواهند داشت و باید استانداردهای بالاتری داشته باشند، در حالی که برخی دیگر اکتشافیتر هستند و ممکن است برای چنین فرآیند اعتبارسنجی منطقی نباشند.
آنتونی آگویر، فیزیکدان و مدیر اجرایی موسسه آینده زندگی، می گوید که منطقی است که تنظیم کننده ها باهوش باشند. با این حال، او برخی مخالفت ها با این آستانه را تلاشی برای اجتناب از هرگونه نظارت بر سیستم های در حال رشد هوش مصنوعی توصیف می کند.
آگویر گفت: “همه چیز خیلی سریع اتفاق می افتد.” من فکر می کنم یک انتقاد معتبر وجود دارد که این آستانه ها دقیقاً منعکس کننده آنچه ما می خواهیم نیست. اما من فکر می کنم استدلال ضعیفی برای این نتیجه گیری وجود دارد که ما نباید کاری انجام دهیم و منتظر باشیم و به بهترین ها امیدوار باشیم.
iribnews به نقل از تیلا