سوشيال ميديا

نائبة الرئيس كامالا هاريس تكشف عن إرشادات الذكاء الاصطناعي “الآمنة والمأمونة والمسؤولة” للوكالات الفيدرالية

نائبة الرئيس كامالا هاريس تكشف عن إرشادات الذكاء الاصطناعي “الآمنة والمأمونة والمسؤولة” للوكالات الفيدرالية
هذا هو موضوع مقالنا عبر موقعكم «المفيد نيوز»، حيث نجيبكم فيه على كافة الاسئلة، ونلقي الضوء على كل ما يهمكم في هذا الموضوع ..فتابعو السطور القادمة بمزيد من الاهتمام.

لا تزال هوليوود وغيرها من الصناعات تتصارع مع كيفية دمج الذكاء الاصطناعي في سير عملها، لكن إدارة بايدن بدأت اليوم في وضع حواجز حماية خرسانية حول التكنولوجيا التي يمكن أن تغير كل شيء حرفيًا.

“عندما تستخدم الوكالات الحكومية أدوات الذكاء الاصطناعي، سنطلب منها الآن التحقق من أن هذه الأدوات لا تعرض حقوق الشعب الأمريكي وسلامته للخطر”، صرحت نائبة الرئيس كامالا هاريس يوم الأربعاء قبل صدور تقرير الحوكمة المعززة الصادر للتو عن مكتب الإدارة والميزانية. مذكرة الابتكار وإدارة المخاطر لاستخدام الوكالة للذكاء الاصطناعي.

وقال نائب الرئيس: “في العام الماضي في قمة سلامة الذكاء الاصطناعي في لندن، قمت بعرض رؤية أمتنا لمستقبل الذكاء الاصطناعي”. وأضاف Veep: “رؤية لمستقبل يتم فيه استخدام الذكاء الاصطناعي لتعزيز المصلحة العامة، وسأؤكد على أن ذلك يخدم المصلحة العامة”. “ومتابعة لهذا العرض التقديمي منذ أشهر، أنا فخور بالإعلان عن ثلاثة متطلبات ملزمة جديدة لتعزيز الاستخدام الآمن والمسؤول للذكاء الاصطناعي من قبل حكومتنا الفيدرالية.”

بناءً على المبادرات السياسية الأخيرة، والأمر التنفيذي الشامل رقم 14110 الصادر في أكتوبر، سلطت المذكرة التي تم إرسالها في وقت مبكر من هذا الصباح من رئيس مكتب الإدارة والميزانية شالاندا يونغ إلى “رؤساء الإدارات والوكالات التنفيذية” الضوء على تعزيز حوكمة الذكاء الاصطناعي، وتطوير الابتكار المسؤول في الذكاء الاصطناعي، وإدارة المخاطر. من استخدام الذكاء الاصطناعي (اقرأ المذكرة التوجيهية للذكاء الاصطناعي الصادرة اليوم من مدير مكتب الإدارة والميزانية هنا).

للتخفيف من خطر إطلاق العنان مصفوفة أو عقود Skynet الآجلة، فإن المعلمات المحددة لمقترحات OMB التي يقدمها نائب الرئيس هي:

تعزيز حوكمة الذكاء الاصطناعي. تتطلب إدارة مخاطر الذكاء الاصطناعي وتعزيز الابتكار في مجال الذكاء الاصطناعي حوكمة فعالة للذكاء الاصطناعي. وفقًا لما يقتضيه الأمر التنفيذي رقم 14110، يجب على كل وكالة تعيين كبير مسؤولي الذكاء الاصطناعي (CAIO) خلال 60 يومًا من تاريخ إصدار هذه المذكرة. توضح هذه المذكرة الأدوار والمسؤوليات والأقدمية والمناصب وهياكل إعداد التقارير الخاصة بمسؤولي عمليات تكنولوجيا المعلومات في الوكالة، بما في ذلك إعداد التقارير الموسعة من خلال قوائم جرد حالات استخدام الذكاء الاصطناعي في الوكالة. نظرًا لأن الذكاء الاصطناعي مترابط بشكل عميق مع المجالات التقنية والسياسية الأخرى بما في ذلك البيانات وتكنولوجيا المعلومات (IT) والأمن والخصوصية والحقوق المدنية والحريات المدنية وتجربة العملاء وإدارة القوى العاملة، يجب على CAIOs العمل بالتنسيق الوثيق مع المسؤولين والمنظمات المسؤولة الحالية داخل وكالاتهم.

النهوض بالابتكار المسؤول في مجال الذكاء الاصطناعي. مع وجود الضمانات المناسبة، يمكن أن يكون الذكاء الاصطناعي أداة مفيدة لتحديث عمليات الوكالة وتحسين خدمة الحكومة الفيدرالية للجمهور. ولتحقيق هذه الغاية، يجب على الوكالات زيادة قدرتها على اعتماد الذكاء الاصطناعي بشكل مسؤول، بما في ذلك الذكاء الاصطناعي التوليدي، واتخاذ الخطوات اللازمة لتمكين مشاركة وإعادة استخدام نماذج الذكاء الاصطناعي ورموزه وبياناته. تتطلب هذه المذكرة من كل وكالة محددة في قانون المديرين الماليين (قانون المدير المالي)4 تطوير استراتيجية مؤسسية حول كيفية تعزيز الاستخدام المسؤول للذكاء الاصطناعي. تقدم هذه المذكرة أيضًا توصيات حول كيفية قيام الوكالات بتقليل العوائق التي تحول دون الاستخدام المسؤول للذكاء الاصطناعي، بما في ذلك العوائق المتعلقة بالبنية التحتية لتكنولوجيا المعلومات والبيانات والأمن السيبراني والقوى العاملة والتحديات الخاصة التي يواجهها الذكاء الاصطناعي التوليدي.

إدارة المخاطر الناجمة عن استخدام الذكاء الاصطناعي. وبينما ستحقق الوكالات فوائد كبيرة من الذكاء الاصطناعي، يجب عليها أيضًا إدارة مجموعة من المخاطر الناجمة عن استخدام الذكاء الاصطناعي. تخضع الوكالات لمتطلبات إدارة المخاطر الحالية ذات الصلة بالذكاء الاصطناعي، ولا تحل هذه المذكرة محل هذه المتطلبات أو تحل محلها. وبدلاً من ذلك، فإنه يضع متطلبات وتوصيات جديدة تعالج، بشكل مستقل وجماعي، المخاطر المحددة الناجمة عن الاعتماد على الذكاء الاصطناعي لإبلاغ قرارات وإجراءات الوكالة أو تنفيذها، لا سيما عندما يؤثر هذا الاعتماد على حقوق الجمهور وسلامته. ولمعالجة هذه المخاطر، تتطلب هذه المذكرة من الوكالات اتباع الحد الأدنى من الممارسات عند استخدام الذكاء الاصطناعي الذي يؤثر على السلامة والذكاء الاصطناعي الذي يؤثر على الحقوق، وتعدد فئات محددة من الذكاء الاصطناعي التي يفترض أنها تؤثر على الحقوق والسلامة. أخيرًا، تضع هذه المذكرة أيضًا سلسلة من التوصيات لإدارة مخاطر الذكاء الاصطناعي في سياق المشتريات الفيدرالية.

“يجب على رئيس كل وكالة مشمولة أيضًا أن يأخذ في الاعتبار الموارد المالية والبشرية والمعلوماتية وموارد البنية التحتية اللازمة للتنفيذ، مع تحديد أولويات الموارد الحالية أو طلب موارد إضافية عبر عملية الميزانية، حسب الحاجة لدعم المسؤوليات المحددة في هذه المذكرة”. مذكرة OMD بتاريخ 29 مارس/آذار 2024. “يتحمل مديرو عمليات التدقيق الداخلي المسؤولية الأساسية نيابة عن رئيس وكالتهم عن تنفيذ هذه المذكرة وتنسيق التنفيذ مع الوكالات الأخرى”.

“أنا والرئيس بايدن نعتزم أن تكون هذه السياسات المحلية بمثابة نموذج للعمل العالمي”، صرح نائب الرئيس هاريس مع بدء طرح السياسة في وقت مبكر من هذا الصباح. قد يكون الجمهور الدولي هو الهدف طويل المدى، لكن الإدارة ركزت العام الماضي على الذكاء الاصطناعي في أمريكا.

صور جيتي

في أكتوبر الماضي، وقع بايدن على الأمر التنفيذي رقم 14110، وكان من بين أهدافه أن تشارك شركات الذكاء الاصطناعي، مثل مالكي ChatGPT OpenAI LP وOpenAI Inc أو Alphabet غير الربحية، نتائج اختبارات السلامة الخاصة بهم مع الحكومة الأمريكية. لم يطالب الأمر التنفيذي رقم 14110 شركات الذكاء الاصطناعي بتحديد المحتوى الناتج عن الذكاء الاصطناعي، لكنه أمر وزارة التجارة بتطوير معايير للمصادقة والعلامات المائية. وعلى الرغم من أن التنفيذ لا يزال غامضًا، فقد أعلن أمر بايدن أيضًا أن الحكومة الفيدرالية ستطور أفضل الممارسات للشركات من جميع المشارب “لتخفيف الأضرار وتعظيم الفوائد” للذكاء الاصطناعي.

وليس من قبيل الصدفة أن تتبنى مثل هذه الإدارة الصديقة للعمال مثل هذا الموقف.

لقد كان الذكاء الاصطناعي نقطة خلاف رئيسية في مفاوضات WGA وSAG-AFTRA والإضرابات ضد الاستوديوهات العام الماضي – وهي النزاعات التي وافق عليها بايدن، من مسافة بعيدة. يعد الذكاء الاصطناعي أيضًا عاملاً رئيسيًا في المحادثات الجارية حاليًا بين AMPTP وIATSE وTeamsters. وفي الوقت نفسه، استخدمت الاستوديوهات الذكاء الاصطناعي بالفعل في خطوات مبكرة على الشاشات الصغيرة والكبيرة. تقول المصادر إنه منذ بداية العام، عقدت العديد من شركات الذكاء الاصطناعي اجتماعات مع الاستوديوهات أو القائمين على البث المباشر لدمج التكنولوجيا في الأفلام والمسلسلات التلفزيونية.

يحدث كل هذا خلف أبواب مغلقة في تينسلتاون، لكن مبادرة اليوم من العاصمة تهدف إلى السماح لضوء الشمس بالدخول – على الأقل في الدوائر البيروقراطية

تشير مذكرة يونج إلى أنه “يجب على كل وكالة (باستثناء وزارة الدفاع ومجتمع الاستخبارات) أن تقوم بشكل فردي بجرد كل حالة من حالات استخدام الذكاء الاصطناعي الخاصة بها سنويًا على الأقل، وتقديم المخزون إلى مكتب الإدارة والميزانية، ونشر نسخة عامة على موقع الويب الخاص بالوكالة”. تقول المراسلات: “إن تبني الابتكار يتطلب إزالة الحواجز غير الضرورية وغير المفيدة التي تحول دون استخدام الذكاء الاصطناعي مع الحفاظ على وتعزيز الحواجز التي تضمن استخدامه المسؤول”.

على الرغم من أن ميثاق حقوق الذكاء الاصطناعي الذي تم التكهن منذ بعض الوقت بأنه سيأتي من الإدارة، وبطاقة انتخابية غير متوقعة إلى حد ما، فإن السياسة الجديدة التي تصف نفسها بأنها “ضمانات ملموسة” تهدف إلى تطبيقها في جميع أنحاء العالم. معظم الحكومة الفيدرالية بحلول الأول من ديسمبر/كانون الأول. نعم، تعترف المذكرة القادمة من واشنطن العاصمة بأن بعض الوكالات أو المجموعات يمكن أن تحصل على تمديد لمدة عام واحد لمرة واحدة إذا “لم تتمكن بشكل عملي من تلبية الحد الأدنى من المتطلبات”. ومع ذلك، للاقتراب من أكبر عدد ممكن من الوكالات للوصول إلى هدف الأول من ديسمبر، تخطط الحكومة لتوظيف ما لا يقل عن 100 متخصص في الذكاء الاصطناعي بحلول هذا الصيف.

سواء كانت هذه الأهداف عملية أم لا، في عالم الذكاء الاصطناعي سريع التغير، وفي عام الانتخابات، تضع نائبة الرئيس عينها على الصورة الكبيرة – ونحن لا نتحدث عن عام 2028.

“أعتقد أن جميع القادة من الحكومة والمجتمع المدني والقطاع الخاص لديهم واجب أخلاقي وأخلاقي ومجتمعي للتأكد من اعتماد الذكاء الاصطناعي وتطويره بطريقة تحمي الجمهور من الضرر المحتمل، مع ضمان قدرة الجميع على قال هاريس يوم الأربعاء: “تمتع بفائدتها الكاملة”.

  • أقسام تهمك:
  • عيادات المفيد ..للحصول على معلومات صحية موثوقة 
  • سيارات المفيد.. تحديث على مدار الساعة في عالم السيارات
  • أخبار الاقتصاد والبنوك وعالم المال والأعمال..لا تفوته
  • الإسلام المفيد .. للفتاوى والقضايا الشائكة ..هام
  • للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .

    مقالات ذات صلة

    زر الذهاب إلى الأعلى