اخبار اخبار فرهنگی

چه زمانی هوش مصنوعی آنقدر قدرتمند است که خطرناک باشد؟

تبلیغات بنری


وب سایت JamaicaGliner نوشت: چگونه یک سیستم هوش مصنوعی آنقدر قدرتمند می شود که خطر امنیتی ایجاد می کند و نباید بدون نظارت دقیق از آن استفاده کرد؟

چه زمانی هوش مصنوعی آنقدر قدرتمند است که خطرناک باشد؟

برای گزارش دادن تیلا طبق وب سایت Jamaica Gleaner، تنظیم کننده های ارتباطات از راه دور هوش مصنوعی از ریاضیات برای ایجاد حفاظت های مورد نیاز فناوری هوش مصنوعی استفاده می کنند. صفر شمردن 100,000,000,000,000,000,000,000 یا 100 سپتیلیون محاسبه برای آموزش سیستم های هوش مصنوعی بر روی مقادیر انبوه داده مورد نیاز است.

آنچه برخی از قانونگذاران و حامیان ایمنی هوش مصنوعی را نگران می کند، سطح قدرت محاسباتی است که ممکن است فناوری پیشرفته هوش مصنوعی را قادر به ایجاد یا استقرار سلاح های کشتار جمعی یا انجام حملات سایبری فاجعه آمیز کند.

کسانی که چنین مقرراتی را پیش‌نویس می‌کنند تصدیق می‌کنند که آنها نقطه شروع ناقصی برای تمایز بین سیستم‌های تولید هوش مصنوعی فعلی و نسل بعدی هستند که ممکن است قدرتمندتر باشند.

منتقدان این آستانه ها را به عنوان تلاشی از سوی دولت ها برای تنظیم ریاضیات مورد حمله قرار داده اند. به گفته آنها، زمانی که برخی قوانین آستانه ای را بر اساس سرعت محاسباتی تعریف می کنند، سردرگمی اضافه می شود. این به معنای تعداد شناورها در ثانیه است که فلاپ نامیده می شود، در حالی که قوانین دیگر بر اساس تعداد تجمعی شناورها، صرف نظر از اینکه چقدر طول می کشد، است.

فرمان اجرایی که سال گذشته توسط جو بایدن امضا شد بر آستانه 10 تا 26 تکیه دارد. قانون جدید ایمنی هوش مصنوعی کالیفرنیا، که فرماندار گاوین نیوسام تا 30 سپتامبر فرصت دارد تا آن را امضا یا وتو کند، معیار دومی را به این معادله اضافه می کند: ایجاد مدل های هوش مصنوعی ساختاریافته باید حداقل 100 میلیون دلار هزینه داشته باشد.

قانون جامع هوش مصنوعی اتحادیه اروپا نیز عملیات ممیز شناور را اندازه گیری می کند، اما آستانه را ده برابر پایین تر، معادل 10 تا توان 25 تعیین می کند. این قانون شامل برخی از سیستم های هوش مصنوعی موجود می شود. دولت چین همچنین به دنبال اندازه گیری قدرت محاسباتی است تا مشخص کند کدام سیستم های هوش مصنوعی به پادمانی نیاز دارند.

هیچ یک از مدل‌های هوش مصنوعی در دسترس عموم اکنون آستانه بالاتر کالیفرنیا را برآورده نمی‌کنند، اگرچه برخی از شرکت‌ها احتمالاً شروع به ساخت آنها خواهند کرد. در این صورت، آنها باید برخی از جزئیات و تضمین‌ها را با دولت ایالات متحده در میان بگذارند، دولت ایالات متحده از قانون دوران جنگ کره استفاده کرده است تا شرکت‌های فناوری را ملزم کند که در صورت ساخت چنین مدل‌های هوش مصنوعی به وزارت بازرگانی اطلاع دهند.

*ابزار اندازه گیری

محققان هوش مصنوعی هنوز در حال بحث در مورد چگونگی ارزیابی بهترین قابلیت‌های جدیدترین فناوری‌های هوش مصنوعی و مقایسه آن‌ها با هوش انسانی هستند. آزمایش‌هایی وجود دارد که سرعت و دقت هوش مصنوعی را در حل پازل، استدلال منطقی یا پیش‌بینی آزمایش می‌کند تا ببیند چقدر به سؤالات افراد از چت‌بات‌ها پاسخ می‌دهد.

این اندازه‌گیری‌ها به ارزیابی اینکه ابزار هوش مصنوعی برای یک کار مشخص چقدر مفید است، کمک می‌کند، اما هیچ راه ساده‌ای برای دانستن اینکه کدام ابزار به اندازه کافی قادر به ایجاد تهدید برای بشریت است، وجود ندارد.

آنتونی آگویر، فیزیکدان و مدیر اجرایی موسسه آینده زندگی، گفت: «این محاسبه عدد جایگشت به طور کلی به عنوان بهترین ما در این زمینه شناخته می شود. این موسسه از تصویب لایحه 1047 سنای کالیفرنیا و سایر قوانین ایمنی هوش مصنوعی در سراسر جهان حمایت کرده است.

آگویر ادامه داد: «محاسبات ممیز شناور ممکن است تخیلی به نظر برسند، اما در واقع فقط اعدادی هستند که با هم جمع یا ضرب می شوند، و آنها را به یکی از ساده ترین راه ها برای ارزیابی توانایی و ریسک یک مدل هوش مصنوعی تبدیل می کند.

وی توضیح داد: بیشتر کاری که انجام می شود فقط ضرب جداول بزرگ اعداد در یکدیگر است. شما به سادگی می توانید به وارد کردن اعداد در ماشین حساب خود و جمع یا ضرب آنها فکر کنید، و این کاری است که آنها انجام می دهند. 10 تریلیون بار یا صد تریلیون بار.

با این حال، برای برخی از مدیران شرکت های فناوری، این یک معیار بسیار ساده و استاندارد است. سارا هوکر، دانشمند کامپیوتر که بخش تحقیقات غیرانتفاعی شرکت هوش مصنوعی Coherence را اداره می‌کند، در مقاله‌ای گفت: هیچ مبنای علمی روشنی برای استفاده از چنین معیارهایی به عنوان شاخص‌های ریسک وجود ندارد.

وی تاکید کرد که آستانه های ریاضی در حال حاضر کوته بینانه هستند و احتمالاً در کاهش خطرات شکست خواهند خورد.

هوروویتز و شریک تجاری او مارک اندرسون، بنیانگذاران شرکت سرمایه گذاری با نفوذ سیلیکون ولی، از دولت بایدن و همچنین قانونگذاران کالیفرنیا انتقاد کرده اند. آنها معتقدند که مقررات هوش مصنوعی می تواند صنعت نوظهور شرکت های استارت آپی هوش مصنوعی را خفه کند.

هوروویتز استدلال می کند که محدود کردن کارهایی که می توان بر اساس ریاضیات انجام داد منعکس کننده این باور اشتباه است که تعداد انگشت شماری از شرکت های بزرگ مدل های توانمند را تولید خواهند کرد.

*همه چیز خیلی سریع اتفاق می افتد

در پاسخ به این انتقاد، یک سناتور ایالتی کالیفرنیا که از این قانون حمایت کرد، تابستان امسال نامه ای به اندرسن و هوروویتز ارسال کرد و از این لایحه، از جمله آستانه های نظارتی آن دفاع کرد.

سناتور اسکات وینر در نامه می نویسد: «مقررات بزرگتر از 10 به توان 26 راهی واضح برای معافیت از الزامات تست ایمنی است، زیرا بسیاری از مدل هایی که بر اساس شواهد فعلی می دانیم قادر به ایجاد آسیب جدی نیستند.

واینر گفت، مدل‌های موجود که به‌صورت عمومی منتشر شده‌اند «از نظر قابلیت‌های بسیار خطرناک آزمایش شده‌اند و مشمول این لایحه نمی‌شوند».

فرمان اجرایی صادر شده توسط واینر و بایدن این اقدام را موقتی می داند و می تواند بعداً اصلاح شود.

یاسین گارنت که در شرکت هوش مصنوعی HuggingFace کار می‌کند، می‌گوید: این الگوریتم بسیار مورد احترام قبل از دستور بایدن در سال گذشته بود، اما اکنون در حال منسوخ شدن است.

توسعه‌دهندگان هوش مصنوعی با مدل‌های کوچک‌تری که به قدرت محاسباتی کمتری نیاز دارند، کارهای بیشتری انجام می‌دهند، در حالی که مضرات بالقوه محصولات هوش مصنوعی که به طور گسترده استفاده می‌شوند، نظارت پیشنهادی در کالیفرنیا را تحریک نمی‌کنند.

به گفته گارنت، برخی از مدل‌ها تأثیر بسیار بیشتری بر جامعه خواهند داشت و باید استانداردهای بالاتری داشته باشند، در حالی که برخی دیگر اکتشافی‌تر هستند و ممکن است برای چنین فرآیند اعتبارسنجی منطقی نباشند.

آنتونی آگویر، فیزیکدان و مدیر اجرایی موسسه آینده زندگی، می گوید که منطقی است که تنظیم کننده ها باهوش باشند. با این حال، او برخی مخالفت ها با این آستانه را تلاشی برای اجتناب از هرگونه نظارت بر سیستم های در حال رشد هوش مصنوعی توصیف می کند.

آگویر گفت: “همه چیز خیلی سریع اتفاق می افتد.” من فکر می کنم یک انتقاد معتبر وجود دارد که این آستانه ها دقیقاً منعکس کننده آنچه ما می خواهیم نیست. اما من فکر می کنم استدلال ضعیفی برای این نتیجه گیری وجود دارد که ما نباید کاری انجام دهیم و منتظر باشیم و به بهترین ها امیدوار باشیم.

تبلیغات بنری

iribnews به نقل از تیلا

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *