※本情報は解説作成時点のもので、閲覧時点では法改正等により情報が変更になっている場合がございます。あらかじめご理解いただければ幸いです。
正解は「D.ハルシネーション」です。
生成AIにおいて、事実に基づかないにもかかわらず、もっともらしい誤情報を出力してしまう現象をハルシネーション(Hallucination)といいます。
この記事では、ITパスポート試験(令和7年度)で出題された過去問の第10問「生成AIのハルシネーション」について、試験対策の観点からわかりやすく解説します。
ハルシネーションとは
ハルシネーション=もっともらしいが事実とは異なる出力
生成AIは、大量の学習データを基に確率的に文章を生成します。そのため、実在しない情報や誤った内容を、あたかも正しいかのように出力することがあります。
他の選択肢との違い
- エコーチェンバー:同じ意見や価値観が増幅される現象
- シンギュラリティ:AIが人間の知能を超える転換点
- ディープフェイク:AIで本物そっくりの偽画像や動画を生成する技術
生成AIの誤出力現象を指すのはハルシネーションです。
問われているポイント
この問題では、生成AI特有のリスクや課題に関する用語を正しく理解しているかが問われています。
技術的仕組みだけでなく、リスクの名称も押さえておきましょう。
気を付けてほしい点(勘違いしやすいポイント)
- もっともらしい=正しいとは限らない
- 生成AIの出力は必ず事実確認が必要
補足
ITパスポートでは、生成AIの活用だけでなく、リスクや倫理面の問題も問われる傾向があります。
ITパスポート試験での出題パターン
ストラテジ系では、DXや生成AIに関する最新用語が出題されます。
ハルシネーションは近年の重要キーワードです。
この知識が使われている問題
まとめ
- ハルシネーションは生成AIの誤出力現象
- 出力内容は必ず事実確認が必要