Dr. Waleed Mandour

د. وليد مندور

Lexicography & Natural Language Processing Researcher

باحث في المعجميات ومعالجة اللغات الطبيعية

Dr. Waleed Mandour

My Research

بحثي العلمي

Advancing Linguistic Understanding Through Data and Technology

تطوير الفهم اللغوي عبر البيانات والتكنولوجيا

My research program is dedicated to exploring and innovating at the confluence of traditional linguistic inquiry and cutting-edge computational methods. With a core interest in Corpus Studies, Semantics, and Discourse Analysis, I leverage advanced computational tools, including Artificial Intelligence and Natural Language Processing, to uncover new insights into language structure, usage, and meaning. My work spans from theoretical advancements in lexicography to practical applications in language education and digital humanities, aiming to create accessible and powerful resources for researchers and learners alike.

يكرس برنامجي البحثي للاستكشاف والابتكار عند تقاطع البحث اللغوي التقليدي والأساليب الحسابية المتطورة. مع اهتمام أساسي بـ دراسات المدونات النصية، علم الدلالة، وتحليل الخطاب، أستفيد من الأدوات الحسابية المتقدمة، بما في ذلك الذكاء الاصطناعي ومعالجة اللغات الطبيعية، للكشف عن رؤى جديدة حول بنية اللغة واستخدامها ومعناها. يمتد عملي من التطورات النظرية في المعجميات إلى التطبيقات العملية في تعليم اللغة والعلوم الإنسانية الرقمية، بهدف إنشاء موارد قوية ومتاحة للباحثين والمتعلمين على حد سواء.

A significant portion of my recent efforts focuses on integrating AI-powered solutions, such as Large Language Models and Retrieval Augmented Generation (RAG) techniques, to automate and enhance complex linguistic tasks, particularly in the realm of dictionary compilation and textual analysis.

يركز جزء كبير من جهودي الحديثة على دمج الحلول المدعومة بالذكاء الاصطناعي، مثل نماذج اللغة الكبيرة وتقنيات التوليد المعزز بالاسترجاع، لأتمتة وتحسين المهام اللغوية المعقدة، خاصة في مجال تجميع القواميس وتحليل النصوص.

Key Research Areas

مجالات البحث الرئيسية

1. Computational Lexicography & AI-Powered Dictionary Design

1. المعجميات الحسابية وتصميم القواميس المدعوم بالذكاء الاصطناعي

This area investigates how computational methods and Artificial Intelligence can revolutionize the field of lexicography. My work explores the development of novel frameworks, such as the AI-Model Triangulation Approach (AMTA), to streamline and enhance bilingual dictionary compilation. I focus on creating tools and pipelines that leverage vast corpora and machine learning to extract, analyze, and validate linguistic data for dictionary entries, addressing challenges in accuracy, efficiency, and cultural nuance.

يبحث هذا المجال في كيفية إحداث الأساليب الحسابية والذكاء الاصطناعي ثورة في مجال المعجميات. يستكشف عملي تطوير أطر جديدة، مثل نهج تثليث النماذج الذكية (AMTA)، لتبسيط وتعزيز تجميع القواميس ثنائية اللغة. أركز على إنشاء أدوات وخطوط عمل تستفيد من المدونات النصية الواسعة والتعلم الآلي لاستخراج وتحليل والتحقق من البيانات اللغوية لمداخل القاموس، معالجة التحديات في الدقة والكفاءة والفروق الدقيقة الثقافية.

Keywords: Lexicography, AI in Linguistics, Bilingual Dictionaries, Computational Linguistics, AMTA

الكلمات المفتاحية: المعجميات، الذكاء الاصطناعي في اللسانيات، القواميس ثنائية اللغة، اللسانيات الحاسوبية، AMTA

2. Corpus-Based Language Analysis & Discourse Studies

2. التحليل اللغوي القائم على المدونات النصية ودراسات الخطاب

My research extensively utilizes corpus linguistics to empirically study language in real-world contexts. This involves building and analyzing specialized corpora (e.g., medical abstracts, political speeches, literary works) to identify patterns in semantics, phraseology, collocation, and discourse structures. I apply these methodologies to understand specific language phenomena, such as academic collocations, orality vs. literacy in plays, and the representation of concepts like 'peace' in political discourse, often comparing across different linguistic and cultural settings.

يستخدم بحثي على نطاق واسع لسانيات المدونات النصية لدراسة اللغة تجريبياً في سياقات العالم الحقيقي. يتضمن ذلك بناء وتحليل مدونات نصية متخصصة (مثل الملخصات الطبية، الخطب السياسية، الأعمال الأدبية) لتحديد الأنماط في الدلالات، وعلم العبارات، والتآلف، وتراكيب الخطاب. أطبق هذه المنهجيات لفهم الظواهر اللغوية المحددة، مثل التآلف الأكاديمي، الشفاهية مقابل الكتابية في المسرحيات، وتمثيل مفاهيم مثل 'السلام' في الخطاب السياسي، غالباً مع المقارنة عبر سياقات لغوية وثقافية مختلفة.

Keywords: Corpus Linguistics, Discourse Analysis, Semantics, Collocation, Language Variation

الكلمات المفتاحية: لسانيات المدونات النصية، تحليل الخطاب، علم الدلالة، التآلف، تباين اللغة

3. AI in Language Learning & Pedagogical Applications

3. الذكاء الاصطناعي في تعلم اللغة والتطبيقات التربوية

Leveraging my background as an educator and a Google for Education Certified Trainer, I investigate the integration of Artificial Intelligence tools to enhance language learning and teaching methodologies. This includes developing and evaluating AI-powered scripts for textual analysis, sentiment analysis, and simplification, as well as exploring how large language models can support students and researchers in various linguistic tasks. The goal is to create innovative, technology-driven pedagogical resources that foster deeper engagement and more effective learning outcomes.

مستفيداً من خلفيتي كمدرس ومدرب معتمد من جوجل للتعليم، أتحقق من دمج أدوات الذكاء الاصطناعي لتعزيز منهجيات تعلم اللغة وتعليمها. يشمل ذلك تطوير وتقييم نصوص مدعومة بالذكاء الاصطناعي لتحليل النصوص، وتحليل المشاعر، والتبسيط، وكذلك استكشاف كيف يمكن لنماذج اللغة الكبيرة دعم الطلاب والباحثين في المهام اللغوية المختلفة. الهدف هو إنشاء موارد تربوية مبتكرة مدفوعة بالتكنولوجيا تعزز المشاركة الأعمق ونتائج التعلم الأكثر فعالية.

Keywords: AI in Education, Language Learning, CALL, Sentiment Analysis, Text Analysis Tools

الكلمات المفتاحية: الذكاء الاصطناعي في التعليم، تعلم اللغة، تعلم اللغة بمساعدة الحاسوب، تحليل المشاعر، أدوات تحليل النصوص

Key Methodologies & Tools

المنهجيات والأدوات الرئيسية