تخطي إلى المحتوى

ذكاء السلوك: النموذج الجديد لتأمين المؤسسة الوكيلة —اقرأ المدونة.

تنظيمات الذكاء الاصطناعي وتنظيمات نماذج اللغة الكبيرة: الماضي، الحاضر، والمستقبل

  • 9 minutes to read

فهرس المحتويات

    ما هي تنظيمات الذكاء الاصطناعي؟

    تنظيمات الذكاء الاصطناعي هي مجموعة من الإرشادات والقواعد المصممة لتنظيم تطوير وتطبيق وتأثير تقنيات الذكاء الاصطناعي. هذه التنظيمات ضرورية لضمان استخدام الذكاء الاصطناعي بشكل مسؤول وأخلاقي، ولتجنب أي ضرر أو تهديد للمجتمع. تغطي هذه التنظيمات مجموعة من القضايا، بدءًا من خصوصية البيانات والأمان، إلى الاعتبارات الأخلاقية، وحتى مسائل الأمن القومي.

    الذكاء الاصطناعي هو مجال يتطور بسرعة، وإن اعتماده على نطاق واسع يثير مجموعة من القضايا القانونية والأخلاقية والاجتماعية المعقدة. تشمل هذه القضايا مخاوف تتعلق بالخصوصية، وفقدان الوظائف المحتمل بسبب الأتمتة، ومخاطر الهجمات السيبرانية المدعومة بالذكاء الاصطناعي، وحتى المخاطر الوجودية على البشرية. لذلك، فإن تنظيمات الذكاء الاصطناعي ليست مجرد مسألة التحكم في التكنولوجيا نفسها، بل تتعلق أيضًا بإدارة تأثيراتها على المجتمع والأفراد.

    بدون تنظيمات مناسبة، هناك خطر من أن يتم إساءة استخدام الذكاء الاصطناعي أو استغلاله، مما يؤدي إلى نتائج سلبية. على سبيل المثال، يمكن استخدام الذكاء الاصطناعي لنشر المعلومات المضللة أو الدعاية، مما يؤدي إلى اضطرابات اجتماعية. كما يمكن استخدامه لتنفيذ هجمات إلكترونية، أو لانتهاك خصوصية الأفراد. في أسوأ السيناريوهات، قد يشكل الذكاء الاصطناعي غير المنضبط خطرًا وجوديًا على البشرية.

    حول هذا Explainer:

    هذا المحتوى هو جزء من سلسلة حولتكنولوجيا الذكاء الاصطناعي.


    هل يجب تنظيم الذكاء الاصطناعي؟

    مسألة ما إذا كان يجب تنظيم الذكاء الاصطناعي هي مسألة مثيرة للجدل. من جهة، يجادل البعض بأن التنظيم ضروري لمنع إساءة استخدام التكنولوجيا ولضمان تطويرها واستخدامها بشكل أخلاقي. من جهة أخرى، يقلق آخرون من أن التنظيم المفرط قد يعيق الابتكار ويعيق نمو صناعة الذكاء الاصطناعي.

    هناك توافق متزايد، مدعوم من قبل شركات التكنولوجيا الرائدة مثل OpenAI وGoogle وMicrosoft، على أن التنظيم ضروري. ومع ذلك، يجب أن يتم تصميمه بعناية للسماح بالاستمرار في تطوير تقنيات الذكاء الاصطناعي، وأخذ الطبيعة الديناميكية وغير المتوقعة لهذا المجال في الاعتبار.

    يمكن أن يوفر التنظيم إطارًا للاستخدام المسؤول للذكاء الاصطناعي، مما يضمن استخدامه بطريقة أخلاقية وعادلة ولا تضر بالمجتمع. كما يمكن أن يوفر حماية ضد الانتهاكات المحتملة للتكنولوجيا. ومع ذلك، من المهم أن لا يصبح التنظيم مقيدًا بشكل مفرط، حيث إن ذلك قد يحد من القيمة الاجتماعية والاقتصادية للابتكارات في مجال الذكاء الاصطناعي.

    نصائح من الخبير

    Steve Moore

    ستيف مور هو نائب الرئيس ورئيس استراتيجيات الأمن في إكزبيم، يساعد في تقديم الحلول لاكتشاف التهديدات وتقديم المشورة للعملاء بشأن برامج الأمن والاستجابة للاختراقات. وهو مضيف بودكاست "The New CISO Podcast"، و عضو في Forbes Tech Council، ومؤسس مشارك لـ TEN18 at Exabeam.

    في تجربتي، إليك نصائح لتعزيز الامتثال وتحسين الأساليب في ضوء تنظيمات الذكاء الاصطناعي:

    تطوير سياسة واضحة لشرح جميع أنظمة الذكاء الاصطناعي
    تأكد من أن مؤسستك لديها بروتوكولات داخلية لتوضيح كيفية اتخاذ نماذج الذكاء الاصطناعي للقرارات. استخدم أطر مثل الذكاء الاصطناعي القابل للتفسير (XAI) لتقديم مخرجات واضحة ومفهومة للمساهمين والجهات التنظيمية.

    إجراء تدقيقات امتثال استباقية
    تقييم الأنظمة الذكية بانتظام وفقًا للتنظيمات العالمية الناشئة، حتى لو لم تكن قابلة للتنفيذ بعد في ولايتك القضائية. البقاء في المقدمة يساعد على منع التعديلات المكلفة عندما يصبح الامتثال إلزاميًا.

    اعتماد أطر الأخلاقيات في تصميم الذكاء الاصطناعي
    دمج المبادئ الأخلاقية في كل مرحلة من مراحل تطوير الذكاء الاصطناعي، من الفكرة إلى التنفيذ. يشمل ذلك العدالة، والمساءلة، والخصوصية، لضمان توافق الأنظمة بشكل طبيعي مع التوقعات التنظيمية.

    إنشاء فريق حكومي متعدد التخصصات للذكاء الاصطناعي
    إنشاء فرق تضم خبراء قانونيين وأخلاقيين ومهندسين ومحترفين في مجالات محددة لضمان الامتثال مع الحفاظ على المعايير التشغيلية والأخلاقية.

    استثمر في المراقبة المستمرة للكشف عن التحيز والتمييز
    نفذ أدوات تحدد وتقيس التحيزات في الوقت الحقيقي. هذا مهم بشكل خاص لنماذج اللغة الكبيرة وتطبيقات الذكاء الاصطناعي عالية المخاطر للحفاظ على العدالة وتلبية متطلبات الشفافية التنظيمية المتطورة.


    المعلمات الرئيسية التي تشكل اللوائح ونتائجها

    الشفافية، العدالة، والقدرة على التفسير

    مبادئ الشفافية والعدالة والقدرة على التفسير أساسية لضمان استخدام الذكاء الاصطناعي بشكل مسؤول وأخلاقي.

    • الشفافية تشير إلى القدرة على فهم كيفية اتخاذ نظام الذكاء الاصطناعي للقرارات. هذا مهم لأنه يسمح للمستخدمين بفهم سبب اتخاذ النظام لقرارات معينة، ويمكن أن يساعد في بناء الثقة في التكنولوجيا.
    • العدالة تتعلق بضمان عدم تمييز أنظمة الذكاء الاصطناعي ضد مجموعات أو أفراد معينين. هذا أمر حاسم في منع إساءة استخدام الذكاء الاصطناعي لأغراض خبيثة، وفي ضمان أن فوائد الذكاء الاصطناعي تُوزع بالتساوي عبر المجتمع.
    • الشفافية تشير إلى القدرة على شرح كيفية عمل نظام الذكاء الاصطناعي. هذا مهم لبناء الثقة في التكنولوجيا، ولضمان أن المستخدمين يفهمون كيف يتم اتخاذ القرارات.

    نهج قائم على المخاطر

    يتضمن النهج القائم على المخاطر في تنظيم الذكاء الاصطناعي تقييم المخاطر المحتملة التي تشكلها تقنيات الذكاء الاصطناعي، ثم تصميم اللوائح للتخفيف من هذه المخاطر. يسمح هذا النهج بإطار تنظيمي مرن ودقيق يمكنه التكيف مع الطبيعة المتطورة بسرعة لتقنية الذكاء الاصطناعي.

    النهج القائم على المخاطر يتضمن:

    • تحديد المخاطر المحتملة
    • تقييم احتمالية وتأثيرهم المحتمل.
    • تحديد كيفية ظهور المخاطر عبر أنواع مختلفة من تكنولوجيا الذكاء الاصطناعي.
    • تطوير استراتيجيات لإدارة هذه المخاطر في سياقات محددة.

    معالجة مخاطر الأمن والفاعلين الخبيثين

    بينما يركز النهج القائم على المخاطر بشكل أوسع على أي مخاطر تنشأ من تكنولوجيا الذكاء الاصطناعي، فإن الجانب الأمني من تنظيم الذكاء الاصطناعي يبرز بشكل خاص الاستخدامات السيئة المحتملة لتكنولوجيا الذكاء الاصطناعي، واستخدامها المحتمل في الهجمات الإلكترونية.

    تقليل المخاطر الأمنية يتضمن تدابير مثل تحسين أمان أنظمة الذكاء الاصطناعي، وتطبيق إرشادات أخلاقية، وإنشاء آليات للمسؤولية والتعويض.

    يتطلب التصدي للجهات الخبيثة التعاون مع القطاع الخاص، وباحثي الأمن السيبراني، والجهات القانونية، لضمان أن يكون لدى كل من القطاعين الخاص والعام الوسائل اللازمة لمكافحة الجرائم الإلكترونية باستخدام تكنولوجيا الذكاء الاصطناعي.

    النهج المؤسسي

    يتضمن النهج المؤسسي لتنظيم الذكاء الاصطناعي إنشاء مؤسسات أو هيئات مخصصة للإشراف على تطوير واستخدام الذكاء الاصطناعي. ستكون هذه المؤسسات مسؤولة عن تنفيذ اللوائح، ومراقبة الامتثال، ومعالجة أي قضايا أو مخاوف قد تنشأ.

    يمكن أن يوفر النهج المؤسسي إطارًا تنظيميًا أكثر قوة وفعالية، حيث يسمح بإشراف أكثر تنسيقًا وشمولية على الذكاء الاصطناعي. كما يمكن أن يوفر منصة للحوار والتعاون بين مختلف أصحاب المصلحة، بما في ذلك الحكومة والصناعة والأوساط الأكاديمية والمجتمع المدني.

    التنظيم الدولي

    يشير التنسيق الدولي إلى عملية مواءمة تنظيمات الذكاء الاصطناعي عبر دول أو مناطق مختلفة. يمكن أن يساعد ذلك في ضمان وجود بيئة تنافسية متساوية لتطوير واستخدام الذكاء الاصطناعي، ويمكن أن يمنع التحكيم التنظيمي، حيث تنتقل الشركات إلى دول ذات تنظيمات أقل صرامة.

    يمكن أن يساعد التنسيق الدولي أيضًا في تعزيز التعاون والتعاون بين الدول، ويمكن أن يساعد في ضمان إدارة فوائد ومخاطر الذكاء الاصطناعي على نطاق عالمي. ومع ذلك، فإن تحقيق التنسيق الدولي يمكن أن يكون تحديًا، بسبب الاختلافات في الأنظمة القانونية والمعايير الثقافية والأنظمة السياسية.

    تزداد الحاجة إلى التنسيق الدولي بشكل ملح، حيث تصبح تقنيات الذكاء الاصطناعي أكثر عالمية في طبيعتها. مع تطوير أنظمة الذكاء الاصطناعي ونشرها عبر الحدود، هناك حاجة إلى نهج عالمي منسق لإدارة المخاطر والفوائد المرتبطة بهذه التكنولوجيا.


    تاريخ تنظيمات وقوانين الذكاء الاصطناعي في جميع أنحاء العالم

    الولايات المتحدة الأمريكية

    في الولايات المتحدة، لا توجد حاليًا تشريعات فيدرالية شاملة تنظم استخدام الذكاء الاصطناعي. في أكتوبر 2022، أصدرت إدارة بايدن اقتراحًا لميثاق حقوق الذكاء الاصطناعي، والذي يتضمن أحكامًا مثل خصوصية البيانات، والإخطار والتفسير، وحماية من التمييز الخوارزمي، والسلامة والفعالية، والبدائل البشرية والاحتياطات. في يونيو 2023، قدم المشرعون الأمريكيون مشروع قانون لجنة الذكاء الاصطناعي الوطنية، لإنشاء لجنة فيدرالية ستقوم بمراجعة نهج الولايات المتحدة في تنظيم الذكاء الاصطناعي.

    في أكتوبر 2023، أعلن البيت الأبيض عن الأمر التنفيذي للذكاء الاصطناعي، المعروف أيضًا باسم EO 14110، والذي يوفر إطارًا لتطوير ونشر وإدارة تقنيات الذكاء الاصطناعي في الوكالات الفيدرالية وعبر البلاد. يهدف إلى تعزيز الابتكار في الذكاء الاصطناعي، مع ضمان أن يكون تطوير الذكاء الاصطناعي أخلاقيًا وآمنًا ويحترم الخصوصية والحقوق المدنية.

    المملكة المتحدة

    اتخذت المملكة المتحدة خطوات استباقية نحو إنشاء بيئة تنظيمية تدعم التطوير الأخلاقي لتقنيات الذكاء الاصطناعي. تركز استراتيجية الذكاء الاصطناعي في المملكة المتحدة على الاستفادة من نقاط القوة في الحكم والأخلاق والابتكار. ومن التطورات الرئيسية إنشاء مركز الأخلاقيات والابتكار في البيانات (CDEI) الذي يقدم المشورة للحكومة بشأن قضايا حوكمة الذكاء الاصطناعي والبيانات.

    تعمل CDEI على تطوير أطر وإرشادات لضمان استخدام تقنيات الذكاء الاصطناعي بشكل مسؤول. علاوة على ذلك، يبرز نهج المملكة المتحدة أهمية الابتكار في القطاع العام، والمعايير الأخلاقية، وبناء قوة عاملة ماهرة للحفاظ على ريادتها في مجال الذكاء الاصطناعي.

    الاتحاد الأوروبي

    الاتحاد الأوروبي في طليعة وضع تنظيمات شاملة للذكاء الاصطناعي، حيث يبرز قانون الذكاء الاصطناعي المقترح التزامه بتطوير ذكاء اصطناعي آمن وأخلاقي. يهدف هذا التنظيم الرائد إلى إنشاء إطار متوازن يعزز الابتكار مع حماية حقوق المواطنين. يصنف أنظمة الذكاء الاصطناعي بناءً على المخاطر التي تمثلها، ويطبق متطلبات أكثر صرامة على التطبيقات عالية المخاطر في مجالات مثل التوظيف والتعليم وإنفاذ القانون.

    يركز قانون الذكاء الاصطناعي على الشفافية والمساءلة وإدارة البيانات، مما يضع سابقة لأساليب التنظيم على مستوى العالم. بالإضافة إلى ذلك، فإن إنشاء مجلس الذكاء الاصطناعي الأوروبي يبرز التزام الاتحاد الأوروبي بتوحيد تنظيمات الذكاء الاصطناعي عبر الدول الأعضاء، مما يضمن نهجًا موحدًا وفعالًا في إدارة الذكاء الاصطناعي.

    اليابان

    تؤكد استراتيجية اليابان في مجال الذكاء الاصطناعي على دمج تقنيات الذكاء الاصطناعي في المجتمع والاقتصاد، مما يعزز الابتكار مع معالجة القضايا الأخلاقية والأمنية. وقد أطلقت الحكومة مبادرات لتعزيز البحث والتطوير في الذكاء الاصطناعي، بهدف تعزيز تنافسية اليابان في السوق العالمية للذكاء الاصطناعي.

    تركز اليابان على خلق بيئة تشجع على التعاون بين الصناعة والأكاديميا والحكومة لتسريع تطبيقات الذكاء الاصطناعي في مجالات متعددة، بما في ذلك الرعاية الصحية، والتصنيع، والنقل. علاوة على ذلك، تعمل اليابان على وضع إرشادات لأخلاقيات الذكاء الاصطناعي، مع التركيز على الشفافية وخصوصية المستخدم والأمان لضمان الاستخدام المسؤول لتقنيات الذكاء الاصطناعي.

    أستراليا

    يتضمن نهج أستراليا في تنظيم الذكاء الاصطناعي خلق بيئة داعمة للابتكار مع ضمان التطوير الأخلاقي والمسؤول. وقد قدمت الحكومة الأسترالية استراتيجية وطنية للذكاء الاصطناعي تحدد رؤيتها لجعل أستراليا رائدة في تطوير وتطبيق الذكاء الاصطناعي المسؤول. تشمل هذه الاستراتيجية الاستثمار في البحث والتطوير في مجال الذكاء الاصطناعي، وإنشاء أطر أخلاقية لاستخدام الذكاء الاصطناعي، وتعزيز التعاون الدولي.

    تسعى أستراليا أيضًا إلى بناء الثقة العامة في تقنيات الذكاء الاصطناعي من خلال التأكيد على الشفافية والمساءلة والشمولية في تطبيقات الذكاء الاصطناعي، مما يضمن أن تساهم هذه التقنيات بشكل إيجابي في المجتمع والاقتصاد.

    كندا

    تُعترف كندا بمساهماتها الكبيرة في أبحاث الذكاء الاصطناعي، وهي تعمل بنشاط على تطوير أطر عمل لتوجيه التطوير والنشر الأخلاقي لتقنيات الذكاء الاصطناعي. وقد قدمت الحكومة الكندية استراتيجيات تهدف إلى وضع كندا كوجهة رائدة عالميًا في مجال الابتكار في الذكاء الاصطناعي.

    تؤكد هذه الاستراتيجيات على تطوير الذكاء الاصطناعي الأخلاقي، ودعم الأبحاث عالية الجودة، وتعزيز النمو الاقتصادي من خلال تقنيات الذكاء الاصطناعي. يشمل نهج كندا مبادرات لتعزيز قوة عاملة ماهرة في الذكاء الاصطناعي وإقامة شراكات تعاونية بين الحكومة والأوساط الأكاديمية والصناعة للاستفادة من الذكاء الاصطناعي لتحقيق فوائد اجتماعية واقتصادية.

    البرازيل

    تتخذ البرازيل خطوات لدمج الذكاء الاصطناعي في تنميتها الاقتصادية والاجتماعية، معترفة بإمكانات تقنيات الذكاء الاصطناعي في دفع الابتكار. وقد بدأت الحكومة البرازيلية مناقشات حول أطر سياسة الذكاء الاصطناعي، مع التركيز على المبادئ الأخلاقية، وتعزيز الابتكار، وتطوير مهارات الذكاء الاصطناعي بين القوى العاملة.

    تسعى البرازيل للاستفادة من الذكاء الاصطناعي لمعالجة التحديات الوطنية، مثل الرعاية الصحية والتعليم والاستدامة البيئية. كما تنظر البلاد في التعاون الدولي لضمان توافقها مع المعايير والممارسات العالمية في تطوير واستخدام تقنيات الذكاء الاصطناعي.

    الصين

    لقد وضعت الصين رؤية جريئة لتصبح رائدة عالمياً في مجال الذكاء الاصطناعي بحلول عام 2030، مدعومة باستثمارات كبيرة في البحث والتطوير في هذا المجال. يركز نهج الحكومة الصينية في تنظيم الذكاء الاصطناعي على التنسيق الذي تقوده الدولة، بهدف استغلال إمكانيات الذكاء الاصطناعي لدفع النمو الاقتصادي والابتكار التكنولوجي مع الحفاظ على الاستقرار الاجتماعي.

    تشمل استراتيجية الصين في مجال الذكاء الاصطناعي تطوير تقنيات جديدة وتطبيقات وصناعات، مدعومة بسياسات تشجع على التعاون بين الحكومة والصناعة والأوساط الأكاديمية. بالإضافة إلى ذلك، تركز الصين على إنشاء معايير أخلاقية للذكاء الاصطناعي لمعالجة قضايا الخصوصية والأمان والعدالة.


    ما هي اللوائح الجديدة التي تظهر لمراقبة نماذج اللغة الكبيرة؟

    لقد دخلت نماذج اللغة الكبيرة مثل ChatGPT من OpenAI وGoogle Gemini وMeta LLaMA في الاستخدام السائد، وتزداد قدراتها بسرعة. وقد أعرب خبراء صناعة الذكاء الاصطناعي والحكومات، وحتى بعض المنظمات التي تطور هذه النماذج، عن مخاوف بشأن المخاطر المحتملة التي تشكلها على المجتمع. في ضوء هذه المخاوف، تتطور تنظيمات محددة لتنظيم الاستخدام العالمي لنماذج اللغة الكبيرة.

    قانون المساءلة الخوارزمية الأمريكي (AAA)

    "قانون المساءلة الخوارزمية"، الذي تم تقديمه في الولايات المتحدة، يهدف إلى منح المستهلكين مزيدًا من الشفافية والسيطرة على أنظمة اتخاذ القرار الآلي التي تؤثر على حياتهم. إذا تم تمريره، فسيتطلب من الشركات إجراء تقييمات تأثير على أنظمة الذكاء الاصطناعي الخاصة بها، بما في ذلك نماذج اللغة الكبيرة، من أجل:

    • التحيز والتمييز: ضمان عدم استمرار الأنظمة في تعزيز التحيز أو التمييز غير العادل.
    • خصوصية البيانات: فحص كيفية استخدام البيانات الشخصية وحمايتها.
    • المسؤولية الخوارزمية: يجب على الشركات الإفصاح عن كيفية اتخاذ نماذج اللغة الكبيرة (LLMs) للقرارات، والبيانات التي تستخدمها، والتأثيرات المحتملة على المستهلكين.

    قانون المبادرة الوطنية للذكاء الاصطناعي في الولايات المتحدة

    قانون المبادرة الوطنية للذكاء الاصطناعي هو برنامج وطني شامل في الولايات المتحدة يهدف إلى تسريع البحث وتطبيق الذكاء الاصطناعي، بما في ذلك نماذج اللغة الكبيرة. يركز هذا القانون على:

    • دعم أبحاث الذكاء الاصطناعي: تشجيع تطوير الذكاء الاصطناعي، الذي يشمل نماذج اللغة الكبيرة، من خلال المنح والمبادرات.
    • معايير وسياسات أخلاقية: يعزز القانون إنشاء معايير وسياسات أخلاقية للذكاء الاصطناعي، مما قد يؤثر على كيفية تدريب واستخدام نماذج اللغة الكبيرة.
    • التعاون الدولي: يهدف إلى وضع إرشادات للتعاون الدولي في أبحاث الذكاء الاصطناعي، والتي يمكن أن تشكل كيفية تطوير وإدارة نماذج اللغة الكبيرة على مستوى العالم.

    قانون الذكاء الاصطناعي في الاتحاد الأوروبي

    قانون الذكاء الاصطناعي في الاتحاد الأوروبي هو اقتراح تنظيمي يمثل أحد أول الأطر التشريعية الرئيسية التي تستهدف أنظمة الذكاء الاصطناعي بشكل خاص. يهدف إلى ضمان أن تكون أنظمة الذكاء الاصطناعي آمنة، وتحترم القوانين الأوروبية المتعلقة بالخصوصية وحماية البيانات، وتُنفذ بطريقة تمنع التمييز.

    إليك التأثيرات المحتملة لقانون الذكاء الاصطناعي في الاتحاد الأوروبي على أنظمة نماذج اللغة الكبيرة:

    • تقييم المخاطر: يمكن تصنيف النماذج اللغوية الكبيرة بناءً على المخاطر التي تشكلها على الحقوق والسلامة. ستواجه التطبيقات عالية المخاطر، مثل تلك التي تؤثر على البنية التحتية الحيوية أو التوظيف أو البيانات الشخصية، تدقيقًا أكثر صرامة.
    • متطلبات الشفافية: قد تكون هناك متطلبات للذكاء الاصطناعي للإفصاح عندما يتفاعل الأفراد مع الذكاء الاصطناعي، وليس مع إنسان، لضمان الشفافية في الاتصالات.
    • جودة وحوكمة البيانات: يمكن أن يفرض القانون حوكمة صارمة للبيانات لمنع التحيزات في مخرجات الذكاء الاصطناعي، وهو أمر بالغ الأهمية بشكل خاص لنماذج اللغة الكبيرة المدربة على مجموعات بيانات ضخمة.

    إرشادات المفوضية الأوروبية للذكاء الاصطناعي الموثوق به

    في عام 2019، نشرت مجموعة الخبراء رفيعة المستوى التابعة للمفوضية الأوروبية بشأن الذكاء الاصطناعي وثيقة بعنوان "إرشادات أخلاقية للذكاء الاصطناعي الجدير بالثقة"، والتي تؤسس إطارًا لتحقيق الذكاء الاصطناعي الجدير بالثقة. يذكر هذا الإطار بشكل خاص نماذج اللغة الكبيرة ويؤكد على:

    • القدرة البشرية والإشراف: يجب أن يدعم الذكاء الاصطناعي الاستقلالية البشرية واتخاذ القرار، كما هو منصوص عليه في الإرشادات.
    • الصلابة والأمان: يجب أن تكون نماذج اللغة الكبيرة آمنة وموثوقة، تعمل دون التسبب في ضرر غير مقصود.
    • الخصوصية وإدارة البيانات: تركز الإرشادات بشكل قوي على حماية البيانات الشخصية، وهو جانب حاسم بالنظر إلى الطبيعة التي تتطلب كميات كبيرة من البيانات لنماذج اللغة الكبيرة.
    • الشفافية: تؤكد الإرشادات على أهمية الشرح، مما يعني أن النماذج اللغوية الكبيرة يجب أن تكون مفهومة لكل من الخبراء والعامة.
    تعلم المزيد:

    اقرأ شرحنا المفصل حول أمان LLM.


    منصة دمج أمني: الرائدة في أنظمة إدارة معلومات الأمان المدعومة بالذكاء الاصطناعي

    تقدم Exabeam تجربة مدعومة بالذكاء الاصطناعي عبر سير العمل الكامل لـ TDIR. يجمع بين قواعد مطابقة الأنماط ونماذج السلوك المعتمدة على التعلم الآلي لاكتشاف التهديدات الأمنية المحتملة مثل الهجمات المعتمدة على بيانات الاعتماد، والتهديدات الداخلية، ونشاط برامج الفدية من خلال تحديد نشاط المستخدمين والكيانات عالية المخاطر. تقوم تحليلات سلوك المستخدمين والكيانات الرائدة في الصناعة (UEBA) بتحديد النشاط الطبيعي لجميع المستخدمين والكيانات، وتعرض جميع الأحداث الملحوظة بالتسلسل الزمني.

    الجدول الزمني الذكي يسلط الضوء على المخاطر المرتبطة بكل حدث، مما يوفر على المحلل كتابة مئات الاستفسارات. يقوم التعلم الآلي بأتمتة سير عمل فرز التنبيهات، مضيفًا سياق UEBA لتحديد التنبيهات ذات الأولوية وتصعيدها بشكل ديناميكي.

    يمكن لمنصة Exabeam تنسيق وأتمتة سير العمل المتكرر لأكثر من 100 منتج خارجي مع إجراءات وعمليات، من النشاط شبه الآلي إلى النشاط الآلي بالكامل. وتقوم أداة Exabeam Outcomes Navigator برسم مصادر البيانات التي تدخل إلى منتجات Exabeam مقابل أكثر حالات الاستخدام الأمني شيوعًا وتقترح طرقًا لتحسين التغطية.

    تعلم المزيد عن إكزابييم

    تعرف على منصة Exabeam ووسع معرفتك في أمن المعلومات من خلال مجموعتنا من الأوراق البيضاء، البودكاست، الندوات، والمزيد.

    • مدونة

      الأمان المتركي للذكاء الاصطناعي مفقود.

    • دليل

      14 حالة استخدام التحليلات السلوكية ينبغي على فرق عمليات الأمن تقييمها

    • مدونة

      ذكاء السلوك: النموذج الجديد لتأمين المؤسسة الوكيلة

    • مدونة

      خمسة أسباب تجعل فرق عمليات الأمان تعزز Microsoft Sentinel باستخدام New-Scale Analytics.