جهان امروز و هوش مصنوعی،
قوانین ایالات متحده آمریکا در هوش مصنوعی کدامند؟
به گزارش با فناوری، خراسان رضوی چت بات جی چی تی (ChatGPT)، یک محصول هوش مصنوعی است که در ماه نوامبر ۲۰۲۲ پا به عرصه زندگی بشر گذاشت، ظرفیت شگفت انگیزی برای نوشتن مقاله، شرکت در بحث های فلسفی و تولید کدهای کامپیوتری دارد اما این چت بات محبوب چه خطراتی به همراه دارد؟
با پیشرفت روز افزون هوش مصنوعی خیلی از افراد خطر را احساس کردند و خواستار وضع مقررات فوری در این حوزه شدند. خیلی از کشورهای جهان درحال وضع قوانین در ارتباط با استفاده از هوش مصنوعی و یا در شرف انجام آن هستند و ایالات متحده آمریکا هم مطالعه قوانین احتمالی برای تنظیم هوش مصنوعی را در دستور کار خود قرار داده و اخیرا فعالیتهای مقدماتی و خاص عرضه شده است که سرنخ هایی در رابطه با نحوه تفکر دولت فدرال ایالات متحده در مورد هوش مصنوعی و نحوه اداره آنرا در آینده می دهد.
موسسه ملی فناوری و استانداردها
در ۲۶ ژانویه ۲۰۲۳، موسسه ملی فناوری و استانداردها (NIST)، یکی از آژانس های وزارت بازرگانی ایالات متحده، چارچوب مدیریت ریسک هوش مصنوعی ۱.۰ (RMF) خویش را بعنوان راهنمایی داوطلبانه، غیربخشی برای شرکتهای فناوریی منتشر نمود که درحال طراحی، توسعه، استقرار یا استفاده از سیستم های هوش مصنوعی هستند و هدف از آن کمک به مدیریت خطرات فراوان هوش مصنوعی خواهد بود؛ این قوانین فراتر از مدیریت ریسک، به دنبال ارتقاء توسعه و استفاده قابل اعتماد و مسئولانه از سیستم های هوش مصنوعی است.
بعنوان هماهنگ کننده استانداردهای هوش مصنوعی فدرال، موسسه ملی فناوری و استانداردها با رهبران دولت و صنعت هم در ایالات متحده و هم در سطح بین المللی برای توسعه استانداردهای فنی برای ترویج پذیرش هوش مصنوعی همکاری می کند و قوانینی را در قسمت «استانداردهای فنی هوش مصنوعی» در وبسایت خود ذکر کرده است. علاوه بر این، بخش ۵۳۰۱ قانون مجوز دفاع ملی سال مالی ۲۰۲۱ به موسسه ملی فناوری و استانداردها دستور داد تا یک چارچوب مدیریت ریسک داوطلبانه برای سیستم های هوش مصنوعی قابل اعتماد در قالب مدیریت ریسک هوش مصنوعی ایجاد نماید. باآنکه چارچوب مدیریت ریسک هوش مصنوعی داوطلبانه است اما بینش خوبی در مورد ملاحظاتی عرضه می دهد که دولت فدرال احیانا برای مقررات آینده هوش مصنوعی در نظر می گیرد و همانطور که تکامل می یابد، در نهایت می تواند بعنوان یک استاندارد صنعتی پذیرفته شود که جنبه های کلیدی آن در ذیل خلاصه شده است.
تشخیص کلیدی توسط چارچوب مدیریت ریسک هوش مصنوعی اینست که انسان ها معمولاً سیستم های هوش مصنوعی را عینی و دارای عملکرد بالا فرض می کنند. این فرض می تواند به صورت ناخواسته به افراد، جوامع، سازمان ها یا اکوسیستم های وسیع تر همچون محیط زیست صدمه برساند. افزایش قابلیت اطمینان به یک سیستم هوش مصنوعی می تواند به کاهش خطرات این صدمه کمک نماید. چارچوب مدیریت ریسک هوش مصنوعی قابلیت اعتماد را بعنوان داشتن هفت خصوصیت تعریف شده بیان کرده است:
۱. ایمن بودن: عرضه نظارت در زمان واقعی، پشتیبان یا سایر مداخلات سیستم هوش مصنوعی برای پیشگیری از صدمه فیزیکی یا روانی، یا به خطر انداختن جان، سلامت یا دارایی انسان؛
۲. ایمن و انعطاف پذیر بودن: استفاده از پروتکل هایی برای جلوگیری، محافظت در مقابل یا پاسخ به حملات ضد سیستم هوش مصنوعی و مقاومت در مقابل حوادث نامطلوب؛
۳. قابل توضیح و تفسیر بودن: درک و زمینه سازی مناسب مکانیسم های یک سیستم هوش مصنوعی همینطور خروجی آن؛
۴. افزایش حریم خصوصی: محافظت از استقلال انسان با حفاظت از ناشناس بودن، محرمانه بودن و کنترل؛
۵. بی طرفانه بودن: ترویج برابری و مدیریت سوگیری های سیستمی، محاسباتی و آماری و انسانی-شناختی
۶. پاسخگویی و شفافیت: در دسترس قرار دادن اطلاعات در ارتباط با سیستم هوش مصنوعی برای افرادی که با آن در مراحل مختلف چرخه حیات هوش مصنوعی تعامل دارند و حفظ شیوه های سازمانی و حاکمیت برای کاهش صدمه های احتمالی و
۷. معتبر و قابل اعتماد بودن: نشان دادن از راه آزمایش یا نظارت مداوم برای تایید عملکرد سیستم هوش مصنوعی همانطور که در نظر گرفته شده است.
چارچوب مدیریت ریسک هوش مصنوعی همینطور تصریح کرد که سیستم های هوش مصنوعی در معرض خطرات منحصر به فردی مانند موارد ذکر شده در ذیل هستند:
• استفاده از داده های شخصی امکان دارد شرکتهای هوش مصنوعی را مشمول قوانین حفظ حریم خصوصی دولتی یا سایر خطرات حفظ حریم خصوصی به علت قابلیت های تجمیع داده های هوش مصنوعی کند.
• مجموعه داده های آموزشی امکان دارد مشمول محافظت از حق نسخه برداری باشد.
• مسائل در ارتباط با کیفیت داده ها (از جمله داده های نادرست، ناقص یا مغرضانه) می تواند بر قابلیت اعتماد سیستم های هوش مصنوعی تأثیر بگذارد.
• در مورد روش ها و معیارهای اندازه گیری قوی و قابل تایید، اتفاق نظر وجود ندارد.
چارچوب مدیریت ریسک هوش مصنوعی چهار عملکرد کلیدی را برای هوش مصنوعی شرح می دهد که در طول چرخه عمر سیستم هوش مصنوعی برای مدیریت ریسک و تقسیم این عملکردهای اصلی به زیر مجموعه های بیشتر استفاده خواهد شد. پلی بوک همراه چارچوب مدیریت ریسک هوش مصنوعی موارد ذیل را جهت کمک به شرکت ها در اجرای این عملکردهای اصلی پیشنهاد می کند:
۱. طرح: جمع آوری دانش کافی در مورد سیستم هوش مصنوعی برای اطلاع رسانی تصمیمات سازمانی در طراحی، توسعه یا استقرار آن؛
۲. اندازه گیری: اجرای فرآیندهای آزمایش، ارزیابی، راستی آزمایی و اعتبارسنجی برای اطلاع از تصمیمات مدیریت؛
۳. نظارت: ایجاد فرهنگ سازمانی که مدیریت ریسک هوش مصنوعی را در سیاست ها و عملیات خود گنجانده، آنها را به صورت موثر اجرا همینطور مسئولیت پذیری و تنوع، برابری و شمول را تشویق کند و
۴. مدیریت: اولویت بندی و نظارت خطرات سیستم هوش مصنوعی و واکنش به حوادث خطر و بازیابی آنها در نظر گرفته شود.
کمیسیون تجارت فدرال
علاوه بر انتشار چارچوب مدیریت ریسک هوش مصنوعی توسط موسسه ملی فناوری و استانداردها، بعضی از راهنمایی های اخیر از جانب سایر نهادها در داخل دولت فدرال هم بوجود آمده است. بعنوان مثال، کمیسیون تجارت فدرال پیشنهاد کرده که امکان دارد بزودی نظارت خویش را بر مشاغلی که از هوش مصنوعی استفاده می نمایند افزایش دهد. قابل ذکر است، اخیرا کمیسیون تجارت فدرال پست های وبلاگی مختلفی همچون «ادعاهای هوش مصنوعی خویش را کنترل کنید» و «چت ربات ها، دیپ فیک ها و کلون های صوتی؛ فریب هوش مصنوعی برای فروش» را منتشر نموده که به کسب و کارها اخطار داده است تا از اقدامات ناعادلانه یا گمراه کننده اجتناب کنند.
سازمان غذا و دارو
برای شرکت هایی که علاقمند به استفاده از فناوری های هوش مصنوعی برای تصمیم گیری در رابطه با مراقبت های بهداشتی هستند، سازمان غذا و دارو (FDA) اعلام نموده است که می خواهد خیلی از ابزارهای پشتیبانی تصمیم گیری بالینی مبتنی بر هوش مصنوعی را بعنوان دستگاه تنظیم کند.
در حالیکه اقدامات اخیر با جزئیات زیاد توسط موسسه ملی فناوری و استانداردها، کمیسیون تجارت فدرال، و سازمان غذا و دارو منتشرشده است موارد اندکی از مقررات آینده هوش مصنوعی ایالات متحده را عرضه می دهد، شکی نیست که هم اکنون، قوانین سخت و سریع کمی وجود دارد که شرکتهای هوش مصنوعی ایالات متحده می توانند بر مبنای آن فعالیت کنند. به نظر می آید، اجتناب ناپذیر است که باید مقررات به شکلی در نهایت ظاهر شود اما این که چه زمانی رخ خواهد داد، هر کسی حدس می زند.
منابع
www.euronews.com
www.reuters.com
www.openaccessgovernment.org
منبع: با فناوری
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب