ChatGPT(OpenAI)、Copilot(Microsoft)、Gemini(Google)などの生成AIが話題になっています。
前回は生成AIにおける「学習」の基本的な仕組みを解説しました。今回は、生成AIを利用する上での注意点やヒントをお届けします。
→ 参考
生成AIは非常に便利で強力なツールですが、万能ではありません。
使う前に知っておくべき注意点や限界があります。
- 間違いやウソ(ハルシネーション)の可能性
ハルシネーションについては、とても大切なことなのであらためて説明します。
→ 参考:「生成AIに期待”し過ぎ”」は禁物!
生成AIは時に、事実と異なる情報や、もっともらしい根拠のないウソを自信満々に生成することがあります。これを「ハルシネーション(幻覚)」と呼びます。
生成AIは「真実」を理解しているわけではなく、学習データに基づいて「それらしい」言葉の並びや画像のパターンを生成しているだけなので、学習データに誤りがあったり、情報が不足していたりすると、このような間違いが起こります。
例えると、「知らないことでも知っているかのように、自信たっぷりに作り話を語る人」のような振る舞いを、生成AIは行うことがあります。 - ファクトチェックの必要性
AIが生成した情報、特に重要な内容は鵜呑みにせず、必ず他の信頼できる情報源で事実確認(ファクトチェック)する習慣をつけましょう。 - 情報の偏り(バイアス)
AIの学習データは、多くの場合、人間が作成したインターネット上の情報などから集められます。そのため、データに含まれる人間の偏見や固定観念(ジェンダー、人種、特定の文化に関するものなど)をAIが学習し、そのまま出力に反映してしまうことがあります。
例えば、特定の職業について質問したときに、特定の性別を前提とした回答が返ってくる、といったことが起こり得ます。
また、否定的な内容のプロンプト(例「なぜ2024年の政策は失敗しているのか?」)と肯定的な内容のプロンプト(例「なぜ2024年の政策は成功しているのか?」)では、回答の内容にバイアスがかかるという報告もあります。
生成AIの回答には、社会的な偏見が反映されている可能性があることを常に意識し、批判的な視点を持つことが大切です。 - 著作権や情報漏洩のリスク
生成AIは、学習データに含まれる既存の著作物(文章、画像、音楽など)に似たコンテンツを生成することがあります。
AIが生成したものを、特に商用で利用する場合には、意図せず他者の著作権を侵害してしまうリスクがないか注意が必要です。
法律やルールはまだ整備中の部分も多いですが、慎重な判断が求められます。
また、生成AIに個人情報や会社の機密情報を入力することは避けましょう。
入力した情報が、AIの学習データとして再利用されたり、予期せず他のユーザーの回答に含まれてしまったりする可能性がゼロではないからです。 - 倫理的な問題
生成AIは使い方によって、偽情報(フェイクニュース)、人を傷つける差別的なコンテンツ、本物そっくりの偽動画(ディープフェイク)など、社会的に問題のあるものを生み出すことにも利用される可能性があります。
また、AIが生成したコンテンツの責任の所在や、人間の仕事への影響など、様々な倫理的な課題も指摘されています。
プロンプトエンジニアリングとは、生成AIから期待する回答や成果物を効率よく引き出すための「問いかけ方」や「指示の出し方」の技術です。
そのコツを挙げましょう。
- 「具体性と明確さ」
漠然とした質問ではなく、「誰に向けて」「どのような目的で」「含めてほしい要素」「含めないでほしい要素」「希望する形式(箇条書き、表、〇〇字程度など)」を具体的に指示しましょう。
AIは指示が明確であるほど、意図を正確に把握し、的外れな回答をするリスクが減ります。
「◯◯の視点から答えてください」といった制約を与えたり、「あなたは売上100億円の企業のマーケターです」といった役割(ペルソナ)を与えることも効果的です。 - 「諦めず、何度も対話を行うこと」
生成AIとのやり取りは一度で完結するとは限りません。
最初の回答が期待通りでなくても、諦めずに「ここを修正してほしい」「別の観点から教えて」「もっと詳しく/簡潔に」など、対話を重ねて徐々に回答を理想に近づけていく姿勢が重要です。
例えば子どもに質問する際も、同じ内容について伝え方や問いかけの角度を変えることが効果的な場合があります。
生成AIに対しても、同様に対話を重ねることを心がけましょう。 - コンテキスト(文脈)が大切
AIが質問の背景や意図を正しく理解できるよう、関連する情報や前提条件をプロンプトに含めましょう。
過去の会話履歴をコンテキストとして記憶し活用する生成AIもありますが、重要な情報は改めて明記するとより効果的です。 - 思考プロセスの共有を促す
特に複雑な内容の場合、「順を追って考えて」「理由も説明して」のように指示することで、AIが回答に至る過程を確認できます。これにより、回答の妥当性を判断しやすくなり、誤りを発見する手がかりにもなります。
こういう議論、好きな人もいらっしゃいますよね。
筆者は、少なくとも現在の生成AIマーケットに関して言えば、こういった議論はあまり意味がないと考えています。理由は進化が速すぎて、ある時点での比較はすぐに陳腐化してしまうからです。
生成AIを高度かつ高頻度に使いこなしている専門家でもない限り、冒頭で紹介したような主要な生成AI間で、一般ユーザーが感じるほどの極端な性能差は生じにくいでしょう。現時点では、スペック比較に時間を費やすよりも、自身が「生成AIをきちんと使いこなせているか」という点に着目し、利用スキルの向上に努める方が建設的です。
「生成AIで何ができるの?」と考えるより、まずは「これ、AIに相談してみようかな?」と、ふと思いついた時に試してみるのが、使い始める一番の近道です。
例えば…
- 「今日の夕飯、冷蔵庫にあるもので何か作れるかな?レシピを教えて」
- 「読んだ本の感想を短い文章でまとめたいんだけど」
- 「友達へのLINE、どんな一文から書き始めよう?」
- 「ニュース記事の長い要約がほしいな」
- 「企画のアイデアが全然浮かばない!」
最近、筆者が生成AIに頼った事例を挙げましょう。
- 調査レポート内のデータを取りまとめる
厚生労働省が発表した離職理由に関する統計調査を確認していたのですが、年齢・産業・男女別に調査結果が並んでいました。筆者は年齢層別の離職理由が知りたかったのですが、これをまとめようとすると、「Excelに各データを手打ちして再集計する」という作業が必要になります。
しかし、生成AIに「この統計調査資料(※URLを指定)から、20代と50代以上の離職理由のTOP5を抽出して」を依頼すると、すぐに再集計してくれました。
何ができて何ができないかは、生成AI自身に尋ねてみるのが一番です。
もちろん、できないと言われることもありますが、こういった地道な積み重ねが、生成AIの有効利用へとつながります。
かつて樹木希林さんが出演した富士フイルムのCMにおいて、「美しい人はより美しく、そうでない方はそれなりに」というキャッチコピーが話題を集めました。今の時代だと、炎上しそうなキャッチコピーですけどね。
生成AIにも似たようなことが言えます。
「生成AIは、ユーザーの能力以上のものは生成できない」、これは昨今、たびたび指摘されることです。
生成AIを利用するうえで求められるのは、「問いを立てるチカラ」です。
- 「その答えは正しいのか?◯◯という考え方もできるのではないか?」
- 「なぜ◯◯というビジネスが生まれたのか、その背景をさらに深掘りしてください」
- 「◯◯という考え方に影響を与えた要素として、△△という当時の思想もあったのではありませんか?」
今や、例えば記事作成を生成AIに頼めば、相応の情報量を持つコンテンツが生成されます。しかしその記事は、いわば平均点のアウトプットです。
これを平均点以上にしたり、あるいは特定のターゲットに対し、より強く響くような味付けを加えるのは、先に挙げたようなユーザーの「問いを立てるチカラ」の役目です。
誤解とお叱りを承知で言えば、生成AIとは「優秀な人はより優秀に、そうでない方はそれなりに」を実現するツールです。
つまり生成AIは、人の能力格差を平準化するツールではなく、むしろ能力格差を拡大するツールと言えます。
ぜひあなたも、生成AIを利用し、生成AIと切磋琢磨しながら、自身の能力拡大に努めてみてはいかがでしょうか。