この記事でわかること - A4一枚から始めるポリシーの作り方がわかる - 必ず入れるべき7つの項目がわかる - 運用が続く文書にするコツがわかる

社員がChatGPTを使い始めました。何かルールを作らないと心配ですが、いざ調べてみると業界別テンプレート集や10項目以上のチェックリストばかり出てきて、ページを閉じてしまいます。

結論から書きます。最初のAI利用ポリシーは、A4一枚で書ける7項目から始めれば十分です。完成度の高い規程を最初から目指す必要はありません。AIは下書きを作る役割で、仕上げの判断は人間がします。ポリシーも同じで、作ってから現場の声を聞いて直していく前提で組み立てる方が、結果的に運用されます。

完璧な規程を目指さない

業界団体や大企業が公開しているひな形は完成度が高い反面、社員数十人の会社でそのまま使うと、項目が多すぎて誰も読まない文書になりがちです。参考にするのはよくても、丸ごとコピーするのは避けたほうが現実的です。

兼任のAI担当者が自分でメンテナンスできるサイズまで削るのが、運用面では一番大事になります。最初の版は粗くて構いません。半年から1年で見直すことを前提に、まずたたき台を出します。これが現実的な進め方です。

A4一枚に書く7つの項目

最低限入れたい項目は次の7つです。

1つ目は「目的」です。なぜAIを使うのかを、業務効率化のため、といった一文で書きます。

2つ目は「対象者」です。誰に適用するルールか、正社員のみか、パート社員や業務委託先も含むのかを書きます。

3つ目は「使ってよい範囲」です。議事録の要約、メールの下書き作成、社内文書のたたき台作りなど、許可する業務を具体的に書きます。

4つ目は「入れてはいけない情報」です。顧客名、取引金額、社外秘の資料などを書き出します。具体例についてはAIに入力してはいけない情報とはが参考になります。

5つ目は「出力物の扱い」です。AIが出した文章や画像は、必ず人が最終確認してから使う、という一文を入れます。

6つ目は「責任者と相談窓口」です。判断に迷ったとき、誰に聞けばいいかを明示します。

7つ目は「見直し時期」です。次にいつこの文書を更新するかを書いておきます。

この7項目があれば、最初の版としては十分機能します。

禁止事項より「使ってよい範囲」を先に書く

多くのテンプレートは禁止事項を中心に組み立てられています。「これはダメ」「あれもダメ」が並ぶと、現場の社員はAI自体を触らなくなります。せっかく導入したのに、誰も使わない状態が一番もったいない結果です。

書く順番を変えるだけで印象が変わります。先に「議事録の要約はOK」「メールの下書き作成はOK」と許可範囲を書き、そのうえで「ただし顧客名は入れない」と禁止事項を補足する。この順序にすると、社員は「使っていいんだ」という前提でスタートできます。禁止事項は最低限の3〜4点に絞って構いません。

作ったあとの運用が一番大事

文書を作っただけでは何も変わりません。配って終わりだと、ほぼ確実に読まれずに忘れられます。

責任者を1人決めてください。兼任で構いません。問い合わせ窓口にもなり、見直しのタイミングも管理する役割です。そして見直し時期を文書内に明記します。「次回更新:来年4月」と一文入れるだけで、放置を防げます。

配布したあとは、短い説明会とセットにすると浸透が早くなります。30分から60分の社内勉強会で、ポリシーの中身を一緒に読み合わせる時間を取るのが効果的です。詳しい組み立て方はAI活用の社内勉強会は、何を話せばいい?にまとめています。

まとめ

ポリシー作成で手が止まっているなら、まず白紙に「目的」の一文を書き出してみてください。「業務効率化のため、生成AIを安全に活用する」といった、ひと言で構いません。書き始めると、次に必要な項目が自然と見えてきます。完璧な規程より、まず動く一枚を作ることが、社内にAIを定着させる一番の近道です。

Q&A

Q1. 公開されているひな形を使うのと、ゼロから書くのとどちらがおすすめですか? ひな形を参考にするのは構いませんが、そのまま使わず、自社に不要な項目を削る前提で扱ってください。むしろゼロから7項目を書き出す方が、運用される文書になりやすい傾向があります。書き手が中身を理解しているかどうかが、配布後の浸透度を決めます。

Q2. 社員10人未満の小さな会社でもポリシーは必要ですか? 必要です。むしろ規模が小さいほど口頭ルールが暗黙化しやすく、新しく入った人や業務委託先の人が判断に迷います。A4一枚でも明文化されていることで、迷いが減ります。文書化そのものに意味があります。

Q3. ポリシーに違反した社員がいた場合の罰則は書くべきですか? 最初の版では書かなくて構いません。罰則を強調すると現場が萎縮し、結果的にAIが使われなくなります。まずは安心して使ってもらうことを優先し、違反が実際に発生してから具体化する方が、運用上も合理的です。