تكنولوجيا

الذكاء الاصطناعي وذاكرة الإنسان

حين يريد ChatGPT أن يتذكر حياتك كلها

في عالم يتسارع فيه الذكاء الاصطناعي ليكون جزء لا يتجزأ من تفاصيل الحياة اليومية، يخطو “سام ألتمان”، الرئيس التنفيذي لشركة “أوبن آي آي”، خطوة أكثر جرأة بطرحه لفكرة غير مسبوقة.


يريد أن يتحوّل تطبيق “تشات جي بي تي” إلى ذاكرة حية تحفظ كل ما يخص المستخدم من معلومات، ذكريات، تفاعلات وقرارات، بحيث يعرف عنك ما قد تنساه أنت بنفسك.

هذا الطموح التقني ليس مجرد خيال، بل رؤية يتبناها ألتمان علنا، ويرى فيها مستقبل العلاقة بين الإنسان والتقنية؛ علاقة لم تعد تقتصر على المساعدة اللحظية، بل تتجاوزها إلى تكوين ملف حياتي متكامل، يحمل كل ما يمكن للنموذج الذكي أن يتعلمه عن صاحبه، منذ بداية استخدامه وحتى لحظته الأخيرة.

من النص إلى الذاكرة: الذكاء الاصطناعي يقترب من الوعي الشخصي

في تصريحه الأخير، شبّه “ألتمان” الذكاء الاصطناعي بذاكرة ضخمة تحتوي على “تريليون وحدة” من البيانات التي تمثل حياة المستخدم. لكن ما يبدو للوهلة الأولى تقدما مثيرا، يُخفي خلفه تحوّلا جذريا في طبيعة العلاقة بين الأفراد وهذه النماذج الرقمية. لم يعد الذكاء الاصطناعي ينتظر التعليمات أو الاستفسارات، بل صار يكوّن فهما متقدما وسياقيا لك، ليمارس دور المساعد الاستباقي، أو حتى الشريك في اتخاذ القرار.

بفضل هذه الذاكرة الطويلة، سيتمكن ChatGPT من تقديم اقتراحات أكثر دقة، وتنظيم الأنشطة اليومية بشكل تلقائي، بل وحتى مساعدتك في الأمور الشخصية بناءً على قراءاتك السابقة أو علاقتك بالأشخاص المحيطين بك. لكن في مقابل هذه “الخدمة الفائقة”، يدفع المستخدم ثمنا غير مرئي: حياته الخاصة تتحوّل إلى قاعدة بيانات قابلة للتحليل والتوجيه.

الخصوصية في خطر

بينما يروّج ألتمان لمزايا هذا التطور، فإن المخاوف حول مصير بيانات المستخدمين تتزايد. أن تتحول ذكرياتك الشخصية، قراراتك، تفاصيل يومك، وحتى مزاجك، إلى معلومات محفوظة في خوادم شركة تكنولوجية، فذلك يفتح الباب أمام استغلال غير محدود. فالسؤال الجوهري هنا ليس: “ماذا يمكن أن يفعل التطبيق لك؟”، بل “من يملك فعلياً هذا المخزون المعرفي؟”.

من يضمن ألا تستخدم هذه البيانات في التوجيه الإعلاني أو التلاعب السلوكي أو حتى التأثير السياسي؟ تجربة الشركات الكبرى في هذا المجال لا تطمئن؛ فقد شهد العالم سابقا قضايا كبرى حول تسريب البيانات، وانتهاك الخصوصية، واستخدام المعلومات الشخصية لأغراض غير معلنة. فهل نكرر الخطأ نفسه ولكن بحجم أكبر وعمق أخطر؟

بين التخصيص والتحيز

يرى “ألتمان” أن “الذاكرة الشخصية” ستجعل ChatGPT قادرا على تقديم إجابات أكثر دقة واقتراحات أكثر نفعاً، لكن ما يغيب عن هذا التصور هو خطر التحيّز.

حين يبني الذكاء الاصطناعي فهمه لك على تجاربك ومواقفك السابقة فقط، فإنه في الواقع يعيد تدوير رؤيتك للعالم، ويغلق أمامك احتمالات جديدة. فهو يتعلم منك ليعكسك، لكنه بذلك قد يحجب عنك مسارات بديلة، ويغذي فقاعات معرفية تشبه ما فعلته خوارزميات مواقع التواصل الاجتماعي.

الذكاء الاصطناعي المُخصص أكثر من اللازم، قد يتحوّل من مساعد إلى موجه غير معلن، يحدد لك ما تقرأ، وما تفكر فيه، وأي خيارات تناسب “شخصيتك” الرقمية.

الخطر المؤسسي

المقلق أكثر هو أن ألتمان لا يحصر استخدام “الذاكرة الذكية” في الأفراد، بل يتحدث صراحة عن تبنيها في المؤسسات. أي أن الشركات قد تعتمد على نموذج ذكاء اصطناعي يحتفظ بكل قراراتها، اجتماعاتها، رسائلها، وقواعد بياناتها، ليستخدمها لاحقاً في التوجيه الاستراتيجي أو التنبؤ بالمخاطر أو دعم الابتكار.

لكن ذلك يُعرض أمن المعلومات المؤسسية لمستوى جديد من التهديد، إذ يكفي خلل صغير، أو اختراق محدود، أو خطأ في الضبط، لتحويل كل أسرار المؤسسة إلى مادة مفتوحة لمن يدفع أكثر، أو يملك وسائل اختراق متقدمة.

التشريعات في سبات

المؤسف أن السباق التقني لم تقابله بعد سرعة تشريعية مماثلة. فما زالت القوانين المتعلقة بحماية البيانات تتأخر، وغالبا ما تضع المستخدم أمام اتفاقيات مطولة لا يُقرأ معظمها. وبينما تُطوّر الشركات تقنيات أكثر تغلغلا في الحياة اليومية، يبقى المستخدم دون مظلة حقيقية تحميه من التوظيف التعسفي لمعلوماته.

المطلوب اليوم ليس فقط قانون حماية بيانات شامل، بل منظومة تشريعية صارمة تُخضع نماذج الذكاء الاصطناعي لمساءلة شفافة، تضمن حق المستخدم في الاطلاع على ما يُخزن عنه، وكيف يُستخدم، وإمكانية محو ذاكرته الرقمية متى شاء.

نحو استخدام متوازن

رغم كل هذه المخاوف، لا يمكن إنكار أن الذكاء الاصطناعي، إذا استُخدم بعقلانية ومسؤولية، يمكن أن يشكل أداة قوية لتحسين جودة الحياة. تخيّل مساعدا يتذكر عنك ما تنساه، ويخفف عنك عبء التنظيم، ويقدم لك رؤى دقيقة استنادا إلى بياناتك الفعلية. لكن شرط ذلك أن يكون المستخدم في موقع السيطرة، لا أن يصبح هو نفسه “البيان” الذي يُستثمر ويُعاد تشكيله.

التحدي الحقيقي اليوم هو التوفيق بين ميزات الذكاء الاصطناعي المتقدمة، وحق الإنسان في الخصوصية والحرية. ولا يمكن أن يتم ذلك إلا عبر مبادئ واضحة تحكم العلاقة بين الطرفين، وتعيد للمستخدم قراره السيادي فيما يخص معلوماته الشخصية.

المستقبل ليس تقنيا فقط

حين يسعى الذكاء الاصطناعي لأن يصبح “ذاكرتنا الثانية”، علينا ألا نغفل عن البُعد الأخلاقي لهذا الطموح. فالسؤال لم يعد عن مدى قوة التقنية، بل عن مدى قدرتنا كمجتمع على ضبطها وتوجيهها لخدمتنا، لا لتحويلنا إلى أدوات ضمن شبكات من الخوارزميات.

مقالات ذات صلة

زر الذهاب إلى الأعلى