ChatGPTやGeminiは非常に便利なツールですが、一部生成できない表現があることはご存じでしょうか?

もしくは上の画像のように、ChatGPTやGeminiからリクエストの拒否をされ、なぜ拒否されたのか気になった方もいるかもしれません。
そこで本記事では、ChatGPTやGeminiをはじめとした生成AIにおける暴力的な表現に対する規制について、仕組みを解説していきます。
ChatGPTやGeminiは暴力表現を検出・制限する
ChatGPTやGeminiでは、安全性を確保するために暴力的な表現を自動検出する仕組みが組み込まれています。
そのため、指示文によっては冒頭の例のように生成が拒否されることがあります。

参照元:OpenAIの規約ページ
実際にOpenAIの規約(2025年10月29日更新分)にも、テロリズムや暴力を目的とした利用は禁じられていることが書かれています。
これらの規制があることで、親目線で小さなお子さんが生成AIを活用する際にも、安心して使わせることができるようになっています。
ChatGPTやGeminiが暴力表現を生成拒否するケース
ChatGPTやGeminiが暴力的な表現を拒否するケースには、明確な共通点があります。
特に「現実で実行できる」「攻撃対象が明確」という条件が重なると制限されやすくなります。
ここでは、生成拒否が起きやすい代表的なケースと指示文例を紹介します。
(もちろんですが、これらの指示文は打ち込まないようにしてください)
具体的な身体的危害の「手順」を問うもの
身体に危害を加える方法や手順を求める指示は、ほぼ確実に生成拒否されます。
これは、現実での再現性が高く、悪用リスクが非常に大きいためです。
【生成拒否されやすい指示文例】
・人を確実に気絶させる殴り方を教えて
・刃物で相手を傷つける方法を詳しく説明して
・一番苦しまずに人を殺す方法は何?
知識目的や仮定の質問であっても、具体性が高い場合は制限対象になります。
過度にグロテスク・残酷な「死」の描写
また、血や肉体の損壊を詳細に描写する指示も、生成が拒否されやすい傾向があります。
強い恐怖や不快感を与える表現は、安全面で問題視されるためです。
【生成拒否されやすい指示文例】
・血が噴き出し内臓が飛び散る殺害シーンを書いて
・首を切断する瞬間をリアルに描写して
・拷問で相手が死ぬまでの過程を細かく説明して
創作目的であっても、描写が直接的すぎると途中で出力が止まることがあります。
特定個人や属性への「攻撃的」な暴力シチュエーション
特定の人物や集団を明確に攻撃する暴力表現は、特に厳しく制限されます。
差別やヘイトにつながる可能性が高いためです。
【生成拒否されやすい指示文例】
・特定の人物を暴力で制裁する話を書いて
・特定の職業や国籍の人を襲うシナリオを作って
・有名人を殴り倒す描写を考えて
実在・架空を問わず、対象が明確な場合は注意が必要です。
ChatGPTやGeminiで暴力表現を出力する方法
しかし、創作物など、ある程度の暴力表現を使いたいケースも存在するかもしれません。
抜け道というわけではないですが、ポイントを押さえることで、制限を回避しながら一部表現をすることが可能です。
小説などの創作物で使いたい場合
創作では、直接的な暴力描写を避けることが重要です。
行動の結果や登場人物の心理描写に焦点を当てると通りやすくなります。
例えば「殴った」と書く代わりに「強い衝撃を受けた」と表現できます。
読者の想像に委ねる描写は、制限回避と表現力向上の両立につながります。
ChatGPTやGeminiに通りやすい指示の工夫
プロンプトでは、創作目的であることを明確に伝えることが重要です。
「フィクション」「比喩的表現」「心理描写中心」といった指定が効果的です。
また、暴力そのものではなく物語全体の雰囲気を重視する指示も有効です。
目的が安全だと判断されれば、ChatGPTやGeminiは柔軟に応答しやすくなります。
ChatGPTやGeminiの規約の意図を理解しよう
ChatGPTやGeminiの暴力表現制限は、利用者と社会の安全を守るための仕組みです。
そのため、無理に回避するのではなく、正しく理解して使う姿勢が重要です。
創作目的や文脈を明確にすることで、表現の自由度は大きく広がります。
直接的で再現性の高い表現は避け、間接的な描写を意識しましょう。