إطلاق النسخة الثانية من وثيقة مبادئ الذكاء الاصطناعي التوليدي

أطلقت الهيئة السعودية للبيانات والذكاء الاصطناعي “سدايا” اليوم النسخة الثانية من وثيقة المبادئ التوجيهية لاستخدام أدوات الذكاء الاصطناعي التوليدي (مبادئ الذكاء الاصطناعي التوليدي) لدى العموم من القطاع الخاص والقطاع غير الربحي والأفراد بغية رفع مستوى الوعي باستخدامات تقنيات الذكاء التوليدي المتعددة في مختلف مناحي الحياة وتعد نقلة نوعية في عصرنا الحالي في قدرتها على تفاعل الآلات مع المستخدمين.

وتتمتع تقنيات الذكاء الاصطناعي التوليدي بمزايا عدة يمكن توظيفها في مختلف الأعمال سواءً على مستوى المؤسسات أو الأفراد، وانطلاقًا من هذا المبدأ فقد حرصت سدايا على تعزيز الأدوار الإيجابية لاستخدامات الذكاء الاصطناعي التوليدي مع تخفيف الأخطار المرتبطة به من خلال تطبيق مبادئ الذكاء الاصطناعي وتبني التدابير الوقائية لتفادي الوقوع في: حالات تسرب البيانات، والتضليل، والتزييف العميق، والتحيز، أو مخالفة أنظمة الملكية الفكرية، وحقوق النشر.

وأطلقت “سدايا” أمس المبادئ الخاصة بالقطاعات الحكومية، واليوم تُقدّم الوثيقة المعنية بالعموم كمبادئ توجيهية تتعلق باستخدام ومعالجة البيانات في أدوات الذكاء الاصطناعي التوليدي مع أمثلة تستند إلى سيناريوهات شائعة قد تتطرق إليها الجهات، وتسلط الضوء على التحديات والاعتبارات المرتبطة باستخدام هذه التقنيات، وتتوافق الوثيقة مع الأنظمة والسياسات الحالية في المملكة وتدعم الامتثال لها بما في ذلك اخلاقيات الذكاء الاصطناعي والأنظمة المرتبطة بحوكمة البيانات والخصوصية والأمن والملكية الفكرية وحقوق الإنسان.

وتؤكد الوثيقة على أهمية الالتزام بمبادئ أخلاقيات الذكاء الاصطناعي عند التعامل مع أدوات الذكاء الاصطناعي التوليدي في جميع مراحل دورة حياة هذه الأدوات من أجل تسخير فوائدها والتخفيف من المخاطر التي قد تقع لا سمح الله مما دعت الحاجة إلى وضع سياسات مرتبطة بأدوات محددة معايير أخلاقية ومسؤوليات مهنية.

وضمت الوثيقة المبادئ التي تحكم استخدام البيانات الحكومية في أدوات الذكاء الاصطناعي التوليدي، وهي : النزاهة والإنصاف، الموثوقية والسلامة، والشفافية والقابلية للتفسير، والمساءلة والمسؤولية، والخصوصية والأمن، والإنسانية ، والمنافع الاجتماعية والبيئية، ودعت الجهات الحكومية إلى توخي استخدام الذكاء الاصطناعي التوليدي في عمليات اتخاذ القرارات الحاسمة فضلاً عن الالتزام الصارم بالقضاء على التحيز داخل الخوارزميات لضمان موثوقية النتائج وحمايتها من أي عواقب سلبية.

وأكدت الوثيقة على جملة من المبادئ ومنها تحقيق المنافع الاجتماعية والبيئية التي تدعو إلى تعزيز الأثر الإيجابي والمفيد للأولويات الاجتماعية والبيئية التي يجب أن تفيد الأفراد والمجتمع ككل وتركز على الأهداف والغايات المستدامة دون أن تؤثر سلبًا على الإنسان بل تُسهم في تمكينه واستكمال التقدم التقني والاجتماعي والبيئي مع السعي إلى معالجة التحديات المرتبطة بها.

كما أكدت على ضرورة بناء واستخدام أدوات الذكاء الاصطناعي التوليدي وفق منهجية عادلة وأخلاقية تستند إلى حقوق الإنسان والقيم الثقافية الأساسية من أجل إحداث أثر إيجابي على الأطراف المعنية والمجتمعات المحلية والمساهمة في تحقيق الأهداف الاستراتيجية من أجل تحقيق المصلحة العامة للبشرية وازدهارها.

وقد يترتب على استخدام تقنيات الذكاء الاصطناعي التوليدي تبعات قانونية وأخلاقية لذا شدّدت الوثيقة على أهمية استشارة أصحاب الاختصاص القانوني وذوي الصلة لتقييم الأخطار المرتبطة من استخدام أدوات هذه التقنيات لتفادي الوقوع في الأخطاء القانونية مع الالتزام بالتشريعات ذوات الصلة بما في ذلك نظام حماية البيانات الشخصية لضمان الامتثال وحماية حقوق المستخدم والتأكد من سلامة المحتوى الذي تم إعداده يحترم حقوق الملكية الفكرية وملتزم بحقوق النشر.

وتعد هذه الوثيقة واحدة من سلسلة الجهود المستمرة التي تبذلها سدايا بوصفها هي المرجع الوطني للبيانات والذكاء الاصطناعي في المملكة من تنظيم وتطوير وتعامل من أجل زيادة الوعي بإمكانيات تقنيات البيانات والذكاء الاصطناعي، وتوضيح أهميتهما في وقتنا الحاضر من أجل خدمة القطاعات والأفراد على حد سواء في إطار منهجية تضمن توظيفها التوظيف الأمثل لتحقيق الاستفادة منها.

مما يذكر أن الذكاء الاصطناعي التوليدي هو نموذج تعلم آلة يمكنه إنشاء أمثلة جديدة مشابهة لمجموعة بيانات التدريب، ويعد هذا النموذج جزءًا فرعيًا من الذكاء الاصطناعي يمكنه إنشاء محتوى جديد بما في ذلك النصوص والصور والأصوات والرموز ومقاطع الفيديو وغيرها، ويعمل عن طريق تفسير الأوامر التي يقدمها المستخدمون، ويمكنه أن يؤدي مهام تتطلب قدرات معرفية بشرية بما في ذلك الاستجابة لصياغة الأوامر اللفظية أو المكتوبة والتعلم وحل المشكلات.

وأتاحت سدايا الوثيقة على موقعها الالكتروني من خلال الرابط: https://sdaia.gov.sa/ar/SDAIA/about/Files/GenerativeAIPublicAR.pdf.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *