
تواجه شركة بيربليكسيتي في مجال الذكاء الاصطناعي موجة من الاتهامات المتصاعدة. إذ كشفت تقارير تقنية عن قيامها بجمع محتويات من مواقع إلكترونية . رغم وضع هذه المواقع حواجز رقمية واضحة لمنع أي وصول غير مصرح به. وقد أثار هذا التصرف موجة من الانتقادات الحادة. خاصة من شركة كبرى متخصصة في حماية الشبكات والبنية التحتية الرقمية.
فقد أعلنت مؤسسة رائدة في مجال البنية التحتية للإنترنت أنها رصدت نشاطًا غير مألوف من طرف شركة “بيربليكسيتي”. حيث قامت هذه الأخيرة بحسب التقرير. باستخراج البيانات من مواقع إلكترونية رغم إعلان تلك المواقع رفضها الصريح لمشاركة المحتوى مع أدوات الذكاء الاصطناعي. وتعود أهمية هذه الإشكالية إلى أن كثيرًا من المواقع باتت تعتمد على بروتوكولات رقمية تظهر بوضوح الصفحات المسموح فهرستها وتلك المحجوبة.
وبحسب التفاصيل التي نشرت. استخدمت الشركة الناشئة أساليب تحايلية لتخطي الحواجز الرقمية. من بينها تغيير هوية البرنامج المستخدم للوصول إلى المواقع وهو ما يعرف عادة بطريقة التمويه.
وقد تمثل ذلك في تقليد المتصفحات الشائعة أو استخدام مسارات شبكة بديلة تخفي الجهة الحقيقية التي تجمع المحتوى. مما يشكل خرقًا لقواعد الشفافية الرقمية المتفق عليها ضمن بيئة الإنترنت المفتوحة.
طموحات الذكاء الاصطناعي في مرمى الأخلاقيات
تلجأ معظم شركات الذكاء الاصطناعي الناشئة إلى جمع كميات هائلة من المحتويات الرقمية من أجل تدريب نماذجها الحاسوبية. حيث تشكل النصوص والمقالات والصور مصدرًا غنيًا لتحسين أداء أنظمتها. غير أن ذلك يضعها في موضع محرج عندما يتعلق الأمر بالخصوصية واحترام الملكية الرقمية للمحتوى.
وفي هذه القضية تحديدًا، وجّهت أصابع الاتهام إلى “بيربليكسيتي” بأنها تخطت هذه الحدود. مما أثار غضب بعض المواقع الإلكترونية التي كانت قد فعلت بروتوكولات تمنع الذكاء الاصطناعي من الوصول إلى بياناتها. لكن يبدو أن هذه الإجراءات لم تجدِ نفعًا في مواجهة التحايلات التقنية.
وتعتمد المواقع عادة على ملف رقمي يستخدم لإبلاغ الزائر الرقمي بالمحتوى المسموح عرضه. لكن بحسب التقرير، لم تلتزم الشركة الناشئة بهذه الإرشادات. بل استخدمت برامج تتخفى وراء هويات رقمية زائفة لتحصل على البيانات دون معرفة أصحابها. وقد رصد هذا السلوك عدة مرات وتم توثيقه بالصور والتسجيلات من قبل الفريق التقني المراقب.
شركة بيربليكسيتي .. نفي رسمي يقابله شكوك متزايدة
من جانبها، سارعت الشركة المعنية إلى نفي الاتهامات، معتبرة أنها “عارية من الصحة”. وأكد أحد ممثليها الإعلاميين أن الصور المنشورة لا تثبت أي عملية وصول حقيقية إلى البيانات، بل إن الأداة التي تم ربطها بالشركة ليست ضمن أدواتها، على حد قوله.
وفي الوقت ذاته، أشار المصدر ذاته إلى أن الشركة لم تستخدم الروبوت التقني المزعوم في أي من عملياتها، وأن ما حدث هو محض تشويش هدفه التشويه. في حين يرى مراقبون أن مثل هذه الممارسات تطرح تساؤلات كبرى حول مدى التزام بعض الشركات الناشئة بمعايير الأخلاق الرقمية.
ولم تكن هذه المرة الأولى التي تُتهم فيها الشركة بجمع البيانات دون موافقة، إذ سبق أن طُرحت تساؤلات مماثلة في مناسبات سابقة. لكنّ توسع نطاق الشبهات اليوم يعطي الانطباع بأن هناك نمطًا متكررًا من التجاوزات، لا مجرد حادثة منفردة.
وفي ضوء هذه التطورات، يرى مختصون أن العالم الرقمي بات يحتاج إلى أطر قانونية أوضح وأكثر صرامة، خصوصا أن الذكاء الاصطناعي يقترب بسرعة من السيطرة على مصادر المعلومات على حساب أصحاب الحقوق الأصليين، ما قد يقود إلى معارك قانونية طويلة الأمد إن لم يتم تدارك الوضع.
وتضع هذه القضية الضوء على مفترق طرق بالغ الحساسية بين طموحات الذكاء الاصطناعي وحدود الخصوصية وحقوق النشر. فبينما تتسابق الشركات لتطوير نماذج ذكية تنافس في السوق، يقف كثير من روّاد الإنترنت والمواقع الإخبارية أمام معضلة غير مسبوقة: كيف نحمي المحتوى من الاستغلال، دون أن نعيق التقدّم التقني؟ ويبدو أن الإجابة لن تكون سهلة، لا قانونيًا ولا تقنيًا، طالما ظلّت أدوات الذكاء الاصطناعي تتطور بمعدلات تفوق القدرة على ضبطه.
ياقوت زهرة القدس بن عبد الله