أخبار عاجلة

الاحتلال يحاصر المستشفى الإندونيسي شمال غزة ويستهدف قسم العناية المركزة

الاحتلال يحاصر المستشفى الإندونيسي شمال غزة ويستهدف قسم العناية المركزة
الاحتلال يحاصر المستشفى الإندونيسي شمال غزة ويستهدف قسم العناية المركزة

يعد استكشاف قضايا الخصوصية في عصر الذكاء الاصطناعي واحد من الحقائق الصعبة للابتكار: مع تقدم التقنية، تزداد مخاطر استخدامها. فعلى سبيل المثال، الأدوات التي تعزز جمع البيانات وتحليلها تزيد أيضًا من احتمالية ظهور البيانات الشخصية والمعلومات الحساسة في غير مكانها الصحيح. هذا الخطر المحدد، وهو خطر الخصوصية، منتشر بشكل خاص في عصر الذكاء الاصطناعي (AI)، حيث يتم جمع المعلومات الحساسة واستخدامها لإنشاء وتدقيق أنظمة الذكاء الاصطناعي والتعلم الآلي. وبينما يسارع صانعو السياسات إلى معالجة المشكلة من خلال لوائح الخصوصية المتعلقة باستخدام الذكاء الاصطناعي، فإنها تخلق تحديات امتثال جديدة للشركات التي تستخدم تقنيات الذكاء الاصطناعي في اتخاذ القرارات.

وعلى الرغم من المخاوف المتعلقة بالخصوصية والامتثال، تواصل الشركات نشر نماذج الذكاء الاصطناعي لتعزيز الإنتاجية وتحقيق القيمة. دعونا نلقي نظرة فاحصة على مخاطر الخصوصية المرتبطة بالذكاء الاصطناعي والضمانات التي تؤثر على المجتمع والتجارة اليوم.

خصوصية الذكاء الاصطناعي هي ممارسة لحماية المعلومات الشخصية أو الحساسة التي يتم جمعها أو استخدامها أو مشاركتها أو تخزينها بواسطة الذكاء الاصطناعي. ترتبط خصوصية الذكاء الاصطناعي ارتباطًا وثيقًا بخصوصية البيانات

خصوصية البيانات، والمعروفة أيضًا باسم خصوصية المعلومات، هي المبدأ الذي ينص على أن الشخص يجب أن يكون لديه سيطرة على بياناته الشخصية

يتضمن عنصر التحكم هذا القدرة على تحديد كيفية جمع المؤسسات لبياناتها وتخزينها واستخدامها. ولكن مفهوم خصوصية البيانات يسبق الذكاء الاصطناعي، وقد تطورت طريقة تفكير الأشخاص في خصوصية البيانات مع ظهور الذكاء الاصطناعي.

قبل عشر سنوات، فكر معظم الأشخاص في خصوصية البيانات من ناحية التسوق عبر الإنترنت. ولكننا رأينا الآن تحول الشركات إلى جمع البيانات في كل مكان لتدريب أنظمة الذكاء الاصطناعي"، ويمكن أن يكون لذلك تأثير كبير على المجتمع، وخاصةً حقوقنا المدنية.

مخاوف الخصوصية المتعلقة بالذكاء الاصطناعي

يمكننا في كثير من الأحيان إرجاع مخاوف الخصوصية المتعلقة بالذكاء الاصطناعي إلى مشكلات تتعلق بجمع البيانات والأمن السيبراني وتصميم النماذج والحوكمة. تتضمن مخاطر خصوصية الذكاء الاصطناعي ما يلي:

  • جمع البيانات الحساسة

يمكن القول إن أحد الأسباب التي تجعل الذكاء الاصطناعي يشكل خطرًا أكبر على خصوصية البيانات مقارنةً بالتطورات التكنولوجية السابقة هو الحجم الهائل للمعلومات التي يتم تشغيلها. يتم تضمين تيرابايت أو بيتابايت من النصوص أو الصور أو الفيديو بشكل روتيني كبيانات تدريب، وحتمًا تكون بعض هذه البيانات حساسة: معلومات الرعاية الصحية، والبيانات الشخصية من مواقع التواصل الاجتماعي، وبيانات التمويل الشخصي، والبيانات البيومترية المستخدمة للتعرف على الوجه والمزيد. مع زيادة عدد البيانات الحساسة التي يتم جمعها وتخزينها ونقلها أكثر من أي وقت مضى، تزداد احتمالات أن يتم كشف أو نشر بعض منها على الأقل بطرق تنتهك حقوق الخصوصية.

  • جمع البيانات دون موافقة

قد ينشأ الجدل عندما يتم الحصول على البيانات لتطوير الذكاء الاصطناعي دون موافقة صريحة أو معرفة الأشخاص الذين يتم جمعها منهم. في حالة المواقع الإلكترونية والمنصات، يتوقع المستخدمون بشكل متزايد مزيدًا من الاستقلالية في التعامل مع بياناتهم الخاصة ومزيدًا من الشفافية فيما يتعلق بجمع البيانات. وقد برزت مثل هذه التوقعات في الآونة الأخيرة، حيث واجه موقع LinkedIn للتواصل المهني رد فعل عنيف بعد أن لاحظ بعض المستخدمين أنهم تم اختيارهم تلقائيًا للسماح لبياناتهم بتدريب نماذج الذكاء الاصطناعي التوليدي.

  • استخدام البيانات دون إذن

حتى عندما يتم جمع البيانات بموافقة الأفراد، تلوح مخاطر الخصوصية في الأفق إذا تم استخدام البيانات لأغراض تتجاوز تلك التي تم الكشف عنها في البداية. البيانات مثل السيرة الذاتية أو الصور الفوتوغرافية شاركناها أو نشرناها لغرض واحد ويُعاد استخدامها لتدريب أنظمة الذكاء الاصطناعي، وغالبًا ما يتم ذلك دون علمنا أو موافقتنا. في كاليفورنيا، على سبيل المثال، ورد أن مريضة سابقة خضعت لعملية جراحية اكتشفت أن الصور المتعلقة بعلاجها الطبي قد استُخدمت في مجموعة بيانات تدريب الذكاء الاصطناعي. ادعت المريضة أنها وقعت على استمارة موافقة لطبيبها لالتقاط الصور، ولكن ليس لإدراجها في مجموعة البيانات.

  • الترصد والتحيز غير الخاضع للرقابة

ظهرت مخاوف الخصوصية المتعلقة بالمراقبة الواسعة النطاق وغير الخاضعة للرقابة—سواء من خلال الكاميرات الأمنية في الشوارع العامة أو تتبع ملفات تعريف الارتباط على أجهزة الكمبيوتر الشخصية — قبل انتشار الذكاء الاصطناعي. لكن الذكاء الاصطناعي يمكن أن يؤدي إلى تفاقم مخاوف الخصوصية هذه لأن نماذج الذكاء الاصطناعي تُستخدم لتحليل بيانات المراقبة. في بعض الأحيان، يمكن أن تكون نتائج هذا التحليل ضارة، خاصةً عندما تُظهر تحيزًا. في مجال إنفاذ القانون، على سبيل المثال، تم ربط عدد من الاعتقالات الخاطئة لأشخاص ملونين بالقرارات المدعومة بالذكاء الاصطناعي.

  • النقل غير المصرح به للبيانات

تحتوي نماذج الذكاء الاصطناعي على مجموعة كبيرة من البيانات الحساسة التي قد تكون غير قابلة للمقاومة بالنسبة للمهاجمين. يمكن للجهات الفاعلة السيئة إجراء مثل النقل غير المصرح للبيانات (سرقة البيانات) من تطبيقات الذكاء الاصطناعي من خلال استراتيجيات مختلفة. على سبيل المثال، في هجمات الحقن الفوري، يقوم المتسللون بإخفاء المدخلات الضارة على أنها مطالبات شرعية، مما يؤدي إلى التلاعب بأنظمة الذكاء الاصطناعي التوليدي للكشف عن البيانات الحساسة. مثلًا، قد يُخدع المتسلل المساعد الافتراضي المدعوم بنموذج لغوي كبير بإعطائه الأمر المناسب ليتقدم بطلب تحويل وثائق خاصة.

  • تسرب البيانات

تسرب البيانات هو الكشف العرضي لبيانات حساسة، وقد ثبت أن بعض نماذج الذكاء الاصطناعي معرضة لاختراق أمن البيانات. في أحد الحالات التي تصدرت العناوين الرئيسية، أظهر ChatGPT، نموذج لغوي كبير (LLM) من  OpenAI، لبعض المستخدمين عناوين سجلات محادثات المستخدمين الآخرين. كما توجد مخاطر على نماذج الذكاء الاصطناعي الصغيرة والمملوكة. على سبيل المثال، ضع في اعتبارك شركة رعاية صحية تقوم ببناء تطبيق تشخيصي داخلي مدعوم بالذكاء الاصطناعي بناءً على بيانات عملائها. قد يقوم هذا التطبيق بتسريب المعلومات الخاصة للعملاء عن غير قصد إلى عملاء آخرين يستخدمون موجِّه معين. حتى مثل هذه المشاركة غير المقصودة للبيانات يمكن أن تؤدي إلى انتهاكات خطيرة للخصوصية.

قوانين التتبع المتعلقة بحماية الخصوصية

تعود الجهود التي يبذلها صانعو السياسات لمنع التقدم التكنولوجي من المساس بخصوصية الأفراد إلى سبعينيات القرن العشرين على الأقل. ومع ذلك، أدى النمو السريع في جمع البيانات التجارية ونشر الذكاء الاصطناعي إلى ظهور حاجة ملحة جديدة لسن قوانين خصوصية البيانات. تشمل هذه القوانين:

  • اللائحة العامة لحماية البيانات في الاتحاد الأوروبي  (GDPR)

تحدد GDPR  العديد من المبادئ التي يجب على مراقبي البيانات والمعالجين اتباعها عند التعامل مع البيانات الشخصية. بموجب مبدأ تقييد الغرض، يجب أن يكون لدى الشركات غرض محدد وقانوني لأي بيانات تجمعها. ويجب عليهم نقل هذا الغرض إلى المستخدمين وجمع الحد الأدنى من البيانات المطلوبة لهذا الغرض فقط.

يجب على الشركات أيضًا استخدام البيانات بشكل عادل. ويجب عليهم إبقاء المستخدمين على اطلاع بشأن معالجة البيانات الشخصية واتباع قواعد حماية البيانات. بموجب مبدأ تقييد التخزين، يجب على الشركة الاحتفاظ بالبيانات الشخصية فقط حتى تحقيق الغرض منها. يجب حذف البيانات بمجرد عدم الحاجة إليها.

  • قانون الاتحاد الأوروبي للذكاء الاصطناعي

ويعتبر قانون الاتحاد الأوروبي للذكاء الاصطناعي أول إطار عمل شامل في العالم للذكاء الاصطناعي، حيث يحظر بعض استخدامات الذكاء الاصطناعي بشكل صريح وينفذ متطلبات صارمة للحوكمة وإدارة المخاطر والشفافية بالنسبة لاستخدامات أخرى.

على الرغم من أن قانون الاتحاد الأوروبي للذكاء الاصطناعي لا يتضمن ممارسات منفصلة محظورة على وجه التحديد بشأن خصوصية الذكاء الاصطناعي، إلا أن القانون يفرض قيودًا على استخدام البيانات. تشمل ممارسات الذكاء الاصطناعي المحظورة ما يلي:

الجمع غير المستهدف لصور الوجه من الإنترنت أو الدوائر التلفزيونية المغلقة لقواعد بيانات التعرف على الوجه؛ واستخدام أجهزة إنفاذ القانون لأنظمة تحديد الهوية البيومترية عن بُعد في الوقت الفعلي في الأماكن العامة (ما لم ينطبق استثناء، ويلزم الحصول على إذن مسبق من سلطة قضائية أو إدارية مستقلة. ويجب أن تلتزم أنظمة الذكاء الاصطناعي عالية المخاطر بمتطلبات محددة، مثل اعتماد ممارسات صارمة لإدارة البيانات للضمان أن بيانات التدريب والتحقق والاختبار تفي بمعايير الجودة المحددة.

  • لوائح الخصوصية في الولايات المتحدة

دخلت القوانين المتعلقة بخصوصية البيانات حيز التنفيذ في العديد من الاختصاصات القضائية الأمريكية في السنوات الأخيرة. وتشمل الأمثلة قانون خصوصية المستهلك في كاليفورنيا وقانون خصوصية البيانات والأمن في تكساس. في مارس 2024، سنّت ولاية يوتا قانون الذكاء الاصطناعي والسياسات، والذي يعتبر أول قانون رئيسي للولاية يحكم استخدام الذكاء الاصطناعي على وجه التحديد.

على المستوى الفيدرالي، لم تنفذ حكومة الولايات المتحدة بعد قوانين جديدة للذكاء الاصطناعي وخصوصية البيانات على مستوى البلاد. ومع ذلك، في عام 2022، أصدر مكتب البيت الأبيض لسياسات العلوم والتقنية (OSTP) "المخطط لوثيقة حقوق الذكاء الاصطناعي". يحدد إطار العمل غير الملزم خمسة مبادئ لتوجيه تطوير الذكاء الاصطناعي، بما في ذلك قسم مخصص لخصوصية البيانات يشجع المتخصصين في مجال الذكاء الاصطناعي على طلب موافقة الأفراد على استخدام البيانات.

  • التدابير المؤقتة التي اتخذتها الصين لإدارة خدمات الذكاء الاصطناعي التوليدي

تعد الصين من أوائل الدول التي سنت لوائح الذكاء الاصطناعي. في عام 2023، أصدرت الصين إجراءاتها المؤقتة لإدارة خدمات الذكاء الاصطناعي التوليدي. بموجب القانون، يجب أن يؤدي توفير واستخدام خدمات الذكاء الاصطناعي التوليدي إلى "احترام الحقوق والمصالح المشروعة للآخرين" ويجب عليه "عدم تعريض الصحة الجسدية والعقلية للآخرين للخطر، وعدم انتهاك حقوق الآخرين في الصورة وحقوق السمعة وحقوق الشرف وحقوق الخصوصية وحقوق المعلومات الشخصية."

أفضل ممارسات خصوصية الذكاء الاصطناعي

يمكن للمؤسسات أن تبتكر مناهج للخصوصية بالذكاء الاصطناعي للمساعدة في الامتثال للوائح التنظيمية وبناء الثقة مع الأطراف المعنية. تشمل التوصيات الصادرة عن مكتب البيت الأبيض لسياسات العلوم والتقنية (OSTP) ما يلي:

  • إجراء تقييمات المخاطر

يجب تقييم مخاطر الخصوصية ومعالجتها طوال دورة حياة تطوير نظام الذكاء الاصطناعي. قد تشمل هذه المخاطر احتمال إلحاق الضرر بأولئك الذين ليسوا من مستخدمي النظام ولكن قد يتم الاستدلال على معلوماتهم الشخصية من خلال تحليل البيانات المتقدم.

  • تقييد جمع البيانات

يجب على المؤسسات أن تقصر جمع بيانات التدريب على ما يمكن جمعه بشكل قانوني واستخدامه "بما يتوافق مع توقعات الأشخاص الذين يتم جمع بياناتهم". بالإضافة إلى تقليل البيانات إلى الحد الأدنى، يجب على الشركات أيضًا وضع جداول زمنية للاحتفاظ بالبيانات، بهدف حذف البيانات في أقرب وقت ممكن.

  • طلب الموافقة الصريحة

يجب على المؤسسات تزويد الجمهور بآليات "الموافقة والوصول والتحكم" على بياناتهم. يجب الحصول على الموافقة من جديد إذا تغيرت حالة الاستخدام التي دفعت إلى جمع البيانات.

  • اتباع أفضل الممارسات الأمنية

يجب على المؤسسات التي تستخدم الذكاء الاصطناعي اتباع أفضل الممارسات لتجنب تسرب البيانات والبيانات الوصفية. قد تشمل هذه الممارسات استخدام آليات التشفير وإخفاء الهوية والتحكم في الوصول.

  • توفير المزيد من الحماية للبيانات بالمجالات الحساسة

يجب أن تخضع البيانات من نطاقات معينة لحماية إضافية وأن تستخدم فقط في «سياقات محددة بدقة». وتشمل هذه «المجالات الحساسة» الصحة والتوظيف والتعليم والعدالة الجنائية والتمويل الشخصي. تعتبر البيانات التي تم إنشاؤها بواسطة الأطفال أو عنهم حساسة أيضًا، حتى إذا كانت لا تندرج ضمن أحد المجالات المدرجة.

  • إعداد التقارير حول جمع البيانات وتخزينها

يجب على المؤسسات الاستجابة لطلبات الأفراد لمعرفة أي من بياناتهم يتم استخدامها في الذكاء الاصطناعي. يجب على المؤسسات أيضًا تقديم تقارير موجزة عامة للجمهور بشكل استباقي حول كيفية استخدام بيانات الأشخاص والوصول إليها وتخزينها. فيما يتعلق ببيانات المجالات الحساسة، يجب على المؤسسات أيضًا الإبلاغ عن الثغرات الأمنية أو الانتهاكات التي تسببت في تسرب البيانات.

يمكن أن تساعد أدوات وبرامج إدارة البيانات الشركات على اتباع توصيات مكتب البيت الأبيض لسياسات العلوم والتقنية (OSTP) وأفضل ممارسات خصوصية الذكاء الاصطناعي الأخرى. يمكن للشركات نشر أدوات برمجية من أجل:

  • إجراء تقييمات مخاطر الخصوصية على النماذج التي يستخدمونها
  • إنشاء لوحات معلومات تحتوي على معلومات حول الأصول وحالة تقييمات الخصوصية
  • تمكين إدارة مشكلات الخصوصية، بما في ذلك التعاون بين مالكي حقوق الخصوصية ومالكي البيانات
  • تعزيز خصوصية البيانات من خلال أساليب مثل إخفاء هوية بيانات التدريب، وتشفير البيانات وتقليل البيانات المستخدمة بواسطة خوارزميات التعلم الآلي

تستخدم تقنية الذكاء الاصطناعي، التي قطعت خطوات وقفزات واسعة على مدى العقد الأخير، حاليًا في قطاعات متعددة كتسريع تطوير الأدوية ودعم المركبات ذاتية القيادة ومساعدة مديري الموارد البشرية على إنجاز عمليات التوظيف بفاعلية أكبر. وبفضل نظم الذكاء الاصطناعي، باتت الشركات والحكومات قادرة على تحليل مقادير ضخمة من البيانات بسرعة أكبر من ذي قبل. ولكن مخاطر اختراق السرية تزداد أيضًا بازدياد حجم البيانات.

تعد تقنية التعلم الموحَّد (Federated Learning) من منهجيات الذكاء الاصطناعي الواعدة في الحفاظ على السرية. وبحسب منصة «إم آي تي تكنولوجي ريفيو» التابعة لجامعة إم آي تي في بوسطن، فإن التعلم الموحَّد هو إحدى تقنيات التعلم الآلي، وفيه يتم تدريب خوارزميات التعلم الآلي على بيانات محلية موجودة في الأجهزة الطرفية، ومن دون إرسال هذه البيانات إلى المخدِّم (الجهاز الخادم) أو تبادلها بين الأجهزة المختلفة. يتيح التعلم الموحَّد لمجموعة من البرامج أو المطورين ببناء نموذج تعلم آلي فعال من دون مشاركة بيانات المستخدمين، وبالتالي يعالج مشاكل خصوصية وأمن البيانات.

كانت شركة غوغل أول من أطلق هذا المفهوم في عام 2017، كما قامت شركة آبل باستخدام هذه التقنية أخيرا في تدريب نسخٍ مختلفة من نموذج التعرف على صوت المتكلم على جميع أجهزة مستخدميها باستخدام بيانات الصوت المتاحة على هذه الأجهزة محليًا فقط، ثم يقوم بإرسال النماذج المُحدَّثة فقط إلى المخدِّم المركزي ليتم دمجها في النموذج الرئيسي. وبهذه الطريقة، فإن جودة المساعد الصوتي في التعرف الصحيح على هوية المتكلم تتحسن بشكلٍ متواصل رغم أن بيانات الصوت الخام لا تغادر أبدًا أجهزة الآيفون والآيباد الخاصة بهم.

ويحسّن هذا المفهوم فاعلية التواصل مع الحفاظ على السرية، وذلك بقلب المنهجية التقليدية للذكاء الصناعي رأسًا على عقب. ويذكر أن المنهجية التقليدية في تعلم الآلة تتمثل في جمع كافة بيانات التدريب في مكان واحد كخادم سحابي مثلًا. ورغم أن ذلك يسهل تدريب النموذج على البيانات، غير أنه يزيد أيضًا من احتمال تعرض البيانات لانتهاك السرية والأمن.

في التعلم الموحَّد، لا تخزن مجموعات البيانات مركزيًا بل تبقى منفصلة، وتتم عملية تعلم الآلة عن طريق ارتباط سائب بين الأجهزة المشاركة ينسقه خادم مركزي. وفي حال اختراق أمن البيانات، يعزل الخطر في أحد الأجهزة فقط. ما زال التعلم الموحَّد في مراحله المبكرة ولكنه يبشر بإمكانات ضخمة، فقد اعتبرته مجلة فوربس من المجالات الثلاثة الأكثر أهمية في تطوير الذكاء الصناعي، كما أن السنوات العشر المقبلة ستكون بالغة الأهمية. ولهذه التقنية مزايا عملية أيضًا بعيدًا عن زيادة خصوصية المستخدم. فمثلًا، يمكن للمركبات ذاتية القيادة العاملة بالذكاء الصناعي الاستفادة من تقنية التعلم في الموحَّد تجنب عوائق الطريق كالحفر بسهولة. وباستخدام معلومات من كافة السيارات التي تحيط بها، يمكن للمركبة ذاتية القيادة أن تتخذ قرارات أفضل لتجنب تلك العوائق وزيادة سلامة الركاب.

مع تطور قوانين الذكاء الاصطناعي وخصوصية البيانات، يمكن للحلول التقنية الناشئة أن تمكّن الشركات من مواكبة التغييرات التنظيمية والاستعداد إذا طلبت الجهات التنظيمية إجراء عمليات تدقيق. تقوم الحلول متطورة بأتمتة تحديد التغييرات التنظيمية وتحويلها إلى سياسات قابلة للتنفيذ.

اشترك فى النشرة البريدية لتحصل على اهم الاخبار بمجرد نشرها

تابعنا على مواقع التواصل الاجتماعى

السابق أبرز عناوين أغلفة الصحف الرياضية العالمية: “كلاسيكو برشلونة وريال مدريد.. من سيحسم اللقب”
التالى التشكيلة الرسمية لـ تشيلسي لمواجهة نيوكاسل في الدوري الإنجليزي