د. محمد بن إبراهيم الملحم
ذكرت أن منظومة مؤشرات الأداء تحدّد عمل المشرف التربوي مسبقاً في قوالب جاهزة ليتبعها كما هي، كما يدوّن ما يقوم به أولاً بأول بدلاً من تقرير نهاية السنة، وأضيف مؤخراً إلى ذلك اختبار يجريه المشرف التربوي بنفسه لطلاب المعلم الذي يزورنه، فالمشرف يكتب أسئلة ويطبّق الاختبار ثم يستخرج نتائجه، أرى أن هذه الإجراءات تقوم على افتراضات عدة: أولها أن كل مشرف مؤهل بقوة لتأليف أسئلة مميزة وتصحيحها وتدقيقها، بيد أن هذا من السهل إثبات ضعفه إذا علمنا أن اختيار المشرف التربوي في السنوات الأخيرة عملية ضعيفة وشكلية كما أشرت إليه في ختام مقالتي السابقة، ولقد هجر الإشراف التربوي مؤخراً نسبة ضخمة من المشرفين الذين هم معلمون متمكنون في تخصصاتهم وفي المجال التربوي ولم يعد هذا خافياً على أحد، الافتراض الثاني أن الحكم على جودة العمل التدريسي من خلال نتائج هذه الاختبارات حكم موثوق، بيد أن هذا مشكوك فيه لأن نتيجة هذا الحكم تمس مؤلف الاختبار وهم المشرفون التربويون، حيث سيوجه لهم اللوم بعد ذلك في عدم الارتقاء بمعلمي الطلاب الذين نتائجهم متدنية (!) ولذا فهناك فرصة قوية لقيامهم بتنميط الأسئلة ضمن مستوى اختبارات معلميهم (والتي هي محل نقد كبير لسهولتها المفرطة في غالب الأحيان) مما لن يعكس مصداقية الاختبار في قياس أهداف المنهج وإنما هو يقيس أهداف المعلم (وهي متواضعة)! وثالثاً هذا الأسلوب مع مرور الزمن سيفقد قوته لأسباب منها الملل الذي سيصيب المشرف والطالب ثم التكرار الذي سيكشف أسئلة المشرفين فيعمل المعلمون على تجهيز الطلاب لها في تدريسهم. والحديث يطول عن نقد هذا اللون من الاختبارات التي أريد لها أن تكون اختبارات «معيارية» لكن بتكلفة رخيصة جداً.
لماذا أثر المنظومة محدود؟ هذا سؤالي في أول مقالة، والإجابة تكمن في ما يلي: أولاً نزعت الثقة من المشرف من خلال تحديد كم العمل، وعدم ترك مساحة للتحرك فيما يحقق المصلحة. ثانياً زادت من أعباء المشرف التدوينية دون أن تخفف عنه كم الزيارات في المقابل. ثالثاً أدرجت الاختبارات كأسلوب إجباري يفرض على المشرف مزيداً من الأعباء دون أن تزوّده بأدوات مساعدة، خاصة أن العالم اليوم يتجه إلى الحلول الإلكترونية ويمكن أن تجرى هذه الاختبارات إلكترونياً أو نصف إلكترونياً ليقل الجهد، بيد أن المنظومة تريد حلاً مميزاً (وهو متمثّل في الاختبارات وهذا حق) ولكن مجاناً ودون أن تصرف عليه بسخاء.
أنا لست ضد هذه المنظومة فمؤشرات الأداء ممارسة مهمة وأشكر من قاموا بها فالعمل متقن ونوعي من حيث هو كمؤشرات أداء KPIs، ووجدت فيها (سوى الاختبارات) مجموعة جيدة من المؤشرات المفيدة والتي تدفع بالعاملين إلى الأداء الكمي غالباً، ولذلك يبدر السؤال: ماذا عن الجانب النوعي؟ ولماذا عُمِلت هذه المنظومة؟ هل كانت هناك دراسة متأنية لواقع العمل الإشرافي نتج عنها أن كل شيء تمام ولكن ينقصنا أن تتوافر لدينا مؤشرات أداء بهذه الكيفية؟ ماذا عن ترشيح واختيار المشرفين؟ ماذا عن تحفيزهم وتشجيعهم؟ ماذا عن تدريبهم النوعي؟ ماذا عن قيادات الإشراف؟ وماذا عن مستوى إدارة الإشراف التربوي نفسها في الوزارة؟ ومدى كفاءتها للقيام بمهمتها سواء من حيث الأنظمة والصلاحيات أو الميزانيات والكوادر؟ هناك كثير من الأسئلة تتداول بين التربويين وأهل الميدان (وليست وليدة مقالة ما)، فهل تصدت لها الوزارة لتتفاعل معها ابتداءً فإذا ضمنت ذلك (أو بوادر مميزة منه) تقدم بعد ذلك مسطرتها للقياس (المنظومة)؟ أشير بكل ثقة أن هناك إنجازات مميزة في الوزارة لن تطرح حولها أسئلة، مثلاً جودة إخراج الكتب المدرسية وطباعتها؛ فلا يمكن أن يختلف اثنان اليوم أن وزارتنا قدوة تحتذى في ذلك، مثال آخر: جودة الحلول الإلكترونية التي تُدار بها الوزارة اليوم وقد أثبتت جدارتها ولمس نفعها، ومثال ثالث ورابع.. ولكن تظل هناك نقاط ساخنة ومحل جدل مستمر ومنها فعالية الإشراف التربوي النوعية ومستوى التدريس وجودة قيادة العمل التربوي سواء على مستوى المدرسة أو المنطقة التعليمية ولذلك حاولت المنظومة أن تحقق الحد الأدنى من الجانب الكمي في هذه المساحة، وأظنها نجحت (كمياً). وأخيراً هذه المنظومة في عامها السادس اليوم ولا نعلم ما هي دلائل نجاحها فالدليل السادس لم يقدم نتائج الدورات الخمس السابقة (يفترض أن الـ KPIs تنشر سنوياً!) ولا دراسات أو تحليلات نوعية قامت بها الوزارة لتتأكد من جدواها! لقد سرد الدليل تسع دراسات ماجستير جامعية عن موضوعات شكلية حول تطبيق وتفعيل المنظومة لكن ليس عن نتائجها أو فعاليتها... ولأن حكمي هذا ليس نهائياً وإنما نظرة أولى، فإني أتطلع إلى دراسة جريئة بهذا المستوى لنحتفي بالمنظومة.