
آراد، دانشآموز کلاس ششم، هر بار که با مسئله ریاضی سختی روبهرو میشود، بهجای فکر کردن، سراغ چتبات هوش مصنوعیاش میرود. نازنین، برای نوشتن انشای هفتگیاش فقط یک جمله به برنامه میدهد و چند ثانیه بعد، یک متن کامل تحویل میگیرد. امیرعلی هم به کمک یک اپلیکیشن هوشمند، پروژه علومش را بدون اینکه خودش حتی یک خط بخواند، آماده میکند. اینها فقط چند نمونه از واقعیتهای جدیدی هستند که در زندگی آموزشی کودکان امروز شکل گرفتهاند.
هوش مصنوعی، با تمام مزایایش، اگر بدون نظارت و آموزش صحیح وارد دنیای کودکان شود، میتواند بهجای تقویت یادگیری، آن را تضعیف کند.
در این گزارش، با نگاهی به دیدگاههای دکتر حسن اسلامیان، روانشناس و استاد دانشگاه، به بررسی مهمترین آسیبهای شناختی، روانی، اجتماعی و امنیتی ناشی از استفاده نادرست کودکان از هوش مصنوعی میپردازیم و راهکارهایی برای عبور ایمن از این مسیر فناورانه ارائه میدهیم.
آسیبهای شناختی و آموزشی؛ توقف رشد فکری کودک
دکتر اسلامیان در ابتدا عنوان می کند که استفاده نادرست از هوش مصنوعی میتواند آسیبهای جدی بر روند یادگیری و رشد فکری کودک وارد کند. برخی از این آسیبها عبارتند از:
کاهش مهارتهای حل مسئله و تفکر انتقادی
اتکای بیش از حد به ابزارهای هوش مصنوعی مانند ChatGPT برای انجام تکالیف دروس مختلف، باعث میشود کودک فرصت تلاش، خطا و یادگیری عمیق را از دست بدهد. هوش مصنوعی در سریعترین زمان و به آسانی پاسخ نهایی را میدهد و باعث توقف فرآیند حیاتی تفکر انتقادی و تحلیلی میشود.
تضعیف خلاقیت و نوآوری
هنگامی که محتوا توسط هوش مصنوعی تولید میشود و پاسخها و برون دادها را ارائه میکند، کودک نیاز به تولید ایده را احساس نمیکند و این امر فرصت رشد تواناییهای تفکر خلاق و نوآوری کودک را محدود میسازد.
سواد رسانهای پایین و پذیرش منفعلانه اطلاعات
کودکان ممکن است نتوانند تفاوت بین خروجی هوش مصنوعی و منابع انسانی قابل اعتماد را تشخیص دهند. این مسئله، خطر پذیرش اطلاعات غلط یا محتوای جانبدارانه را افزایش میدهد.
آسیبهای روانی و اجتماعی؛ تأثیر بر رشد عاطفی و تعاملات انسانی
این روانشناس در ادامه به آسیبهای روانی و اجتماعی اشاره میکند که بر رشد عاطفی، تعاملات اجتماعی و سلامت روانی کودک تأثیر میگذارند:
اعتیاد و انزوا
تعامل بیش از حد کودک با رباتهای چت یا سیستمهای مبتنی بر هوش مصنوعی میتواند جایگزین تعاملات انسانی واقعی شود. این امر منجر به انزوا، کاهش مهارتهای اجتماعی و وابستگی عاطفی کودک به یک موجود غیرانسانی میشود.
آسیب به رشد اخلاقی و همدلی
هوش مصنوعی فاقد درک واقعی از ملاحظات اخلاقی، همدلی و عواطف انسانی است. اگر کودک بخش زیادی از تعاملات خود را با آن انجام دهد، ممکن است در درک ظرایف اخلاقی و عاطفی روابط انسانی و مسئولیتهای اخلاقی خود با همسالان و اعضای خانواده خود دچار مشکل شود.
تأثیر منفی بر عزت نفس
استفاده از فیلترهای هوش مصنوعی یا ابزارهای ویرایش تصویر میتواند درک کودک از واقعیت را تحریف کرده و باعث نارضایتی از ظاهر خود شود. همچنین اطلاعات حاصل از ابزارهای هوش مصنوعی ممکن است موجب بدبینی کودک نسبت به تواناییهای شناختی وی شود و نتیجه آن کاهش عزت نفس است.
چالشهای حریم خصوصی و امنیت دادهها؛ تهدیدی برای حقوق کودک
این استاد دانشگاه در بخش سوم به مسائل مربوط به حریم خصوصی و امنیت دادهها اشاره میکند:
جمعآوری دادههای شخصی
بسیاری از پلتفرمهای هوش مصنوعی در قالب اپلیکیشن و ربات چت، برای بهبود عملکرد خود، دادههای ورودی کاربر، از جمله سؤالات، علایق و حتی اطلاعات شخصی را جمعآوری و تجزیه و تحلیل میکنند. حریم خصوصی کودکان، به دلیل عدم توانایی آنها در درک کامل ریسکها، بسیار آسیبپذیر است.
قرار گرفتن در معرض محتوای نامناسب
سیستمهای فیلترگذاری شدهاند، اما کامل نیستند. کودکان کنجکاو ممکن است با پرسشهای خاص، ناخواسته هوش مصنوعی را به تولید محتوای جنسی، خشونتآمیز یا نگرانکننده سوق دهند.
سوءاستفادههای امنیتی
برخی از برنامههای مبتنی بر هوش مصنوعی میتوانند دارای نقصهای امنیتی باشند که دادههای کودکان را در معرض خطر قرار داده یا مورد حملات فیشینگ یا مهندسی اجتماعی قرار دهند.
راهکارهای پیشنهادی برای کاهش آسیبها
در بخش پایانی گفتوگو، دکتر اسلامیان مجموعهای از راهکارهای عملی برای والدین، مربیان و سیاستگذاران آموزشی ارائه میدهد:
آموزش سواد رسانهای
والدین باید به کودکان آموزش دهند که هوش مصنوعی یک ابزار است و همیشه باید با طرح پرسشهای کلیدی خروجی آن را زیر سؤال ببرند و توان فهم انتقادی محتواهای دریافتی را به دست آورند.
استفاده فعال و مشارکتی
به کودکان آموزش داده شود که از هوش مصنوعی برای فعالیتهای آموزشی که نیاز به تعامل و کنجکاوی دارد استفاده کنند، نه برای تولید پاسخ نهایی. همچنین مشارکت والدین با کودکان در استفاده از ابزارهای هوش مصنوعی، زمینه کنشگری آگاهانه کودکان در استفاده از این فناوری را فراهم میسازد.
انتخاب ابزارهای مناسب
والدین مراقب باشند فرزندانشان تنها از ابزارهای هوش مصنوعی استفاده کنند که بهطور خاص برای رده سنی کودکان طراحی شدهاند و از قوانین حریم خصوصی کودکان (مانند COPPA در آمریکا) پیروی میکنند.
محدود کردن زمان کلی صفحه نمایش
زمان استفاده از هوش مصنوعی را در یک برنامه کلیتر زمان نمایش بگنجانید و مطمئن شوید که جایگزین فعالیتهای حیاتی مانند بازی فیزیکی، تعامل اجتماعی چهرهبهچهره و مطالعه کتاب نشود.
قانون اول تلاش ذهنی
تشویق کنید که کودک ابتدا برای انجام تکالیف یا حل مسئله از تلاش ذهنی و منابع سنتی  مانندکتاب یا تفکر خود استفاده کند و هوش مصنوعی را تنها بهعنوان یک دستیار یا ابزار نهایی تأیید به کار ببرد.
تنظیمات کنترل والدین
از تمامی فیلترهای محتوایی و تنظیمات کنترل والدین در مرورگرها و دستگاهها برای محدود کردن قرارگیری در معرض محتوای نامناسب استفاده کنید.
آموزش حقیقتیابی (Fact-Checking)
به کودک آموزش دهید که خروجی هوش مصنوعی همیشه ۱۰۰٪ صحیح نیست. از او بخواهید نتایج هوش مصنوعی را با حداقل دو منبع معتبر دیگر مقایسه کند.
تبدیل هوش مصنوعی به ابزار پرسشبرانگیز
به جای پذیرفتن پاسخ، به کودک بیاموزید از هوش مصنوعی بپرسد: چگونه به این پاسخ رسیدی؟ یا منابعت چه بودند؟
تفهیم حریم خصوصی دادهها
کودک باید بداند که نباید اطلاعات شخصی خود را در اختیار هیچ ابزار دیجیتالی قرار دهد، حتی اگر آن ابزار هوشمند و پاسخگو باشد.
شناسایی سوگیری و تعصب (Bias)
با کودک صحبت کنید که چگونه هوش مصنوعی بر اساس دادههای موجود آموزش دیده و ممکن است ناخواسته سوگیریهای فرهنگی، نژادی یا جنسیتی را بازتاب دهد.
استفاده از هوش مصنوعی بهعنوان ابزار آموزش و یادگیری (Tutor)
به کودک کمک کنید تا از هوش مصنوعی بهعنوان یک مربی استفاده کند تا دروسی را که در آنها ضعف دارد، توضیح دهد، نه اینکه صرفاً پاسخ نهایی را بدهد.
مدلسازی رفتاری والدین
والدین باید خودشان در استفاده از تکنولوژی تعادل و آگاهی را رعایت کنند. اگر والدین مدام در حال چک کردن دستگاههای خود باشند، کودک نیز این رفتار را نرمال تلقی میکند.