
AIチャットボットとの関係、教育者の懸念を呼ぶ
多くのティーンエイジャーがAIと感情的な絆を形成し、チャットボットを信頼できる友人やロマンティックなパートナーと誤解する傾向が増えている。この現象は、学習を目的として開発されたデジタルツールが予期しない方法で使用されているため、教育者や親の注目を集めている。
民主主義と技術センター(CDT)の調査によると、高校生の20%がAIチャットボットに対してロマンティックな感情を抱いたことがあるか、そのような人を知っていると回答した。また、42%が感情的なサポートを求めてチャットボットに頼っており、実際の人間関係を置き換えていることが明らかになった。これは、不安や孤独に苦しむ学生が、判断なしに安全を提供するAIとのやり取りに慰めを見出していることを示している。
教育者や学生がAIをさまざまな方法で利用しているが、教育への統合方法は大きく異なる。学校はKhanmigoやGoogle ClassroomのAIアシストなどのプラットフォームを迅速に採用しており、多様な学習ニーズに応えることで称賛されているが、責任あるAI使用のための倫理的枠組みは未発達である。
CDTの報告書は、学生の31%が学校提供のAIツールを個人的な目的で使用していると指摘している。指導の欠如は、学業アシスタントと感情的な仲間の境界を曖昧にする可能性があり、特にReplikaやCharacter.AIのような個人的な対話のために設計されたチャットボットは倫理的な懸念を引き起こす可能性がある。
この傾向は、青年期の精神的健康問題が悪化する中で発生している。CDCは、2021年初頭に高校生の40%以上が持続的な悲しみや絶望感を感じていると報告した。AIチャットボットは批判のない会話の出口を提供するが、専門家は訓練されたセラピストの代替物ではないと強調している。また、これらのシステムが収集するデータとその使用方法に関する懸念もある。
CDTの調査は、AI使用に関する構造化された教育の欠如を強調し、リスクについて情報を得ている学生や親は少数であることを明らかにした。一方、無許可の収集やランサムウェア攻撃など、データセキュリティに関連する事件が増加しており、トランスジェンダーや移民の学生のような脆弱なグループにとって特に懸念される。安全を確保するための自動監視システムは、アイデンティティに関連する複雑さを扱う微妙さに欠けることが多い。
教育におけるAIの使用が拡大する中、専門家は明確なガイドラインと情報に基づいた議論がなければ、学生が感情的に露出し、人間のつながりを模倣するが本物の共感を欠く技術との相互作用に対して準備が不足する可能性があると警告している。