お知らせ・ブログ

オノコムからの最新情報や、生成AI、AWSクラウド、ノーコードアプリケーションに関する有益な情報をお届けします。

AIを上手く使える方法

2026年03月01日
斧山 洋一
ブログ

最近、AnthropicのClaude CoWorkが登場して「ホワイトカラーの仕事を奪うのではないか」といった話題が人気だ。もともとAIはプログラムコードの作成と親和性が高く、プログラムを書くITエンジニアが先行して使っているイメージが個人的には強かった。しかし、CoWorkなどが登場して、自分の周りでも非エンジニアの方がAIを使い始めようとしているのを見ることがある。

そこで気になったのは、CoWorkに限らずAIチャットなどで、「AIとおしゃべりしてなんとなく上手く活用している人」と「振り回されている人」がいることだ。

なぜそんなことになるのか、自分なりに備忘録としてまとめてみた。

大丈夫なことを調べてからプロンプトを入れる

AIに問い合わせる内容を、先に自分で調べてから入力する人がいる。これは個人的な感想だが、職種というより、普段から仕様を詰める業務に慣れている人ほど多いのかもしれない。

つまりAIを従来のプログラムのように捉えて、「ある一定の条件を入力すると、一定の答えが返ってくる」という認識のもと、正しい命令を入れようとして事前に調べる。再現性を求める、といった具合だ。

そして、再現性を求める過程で再現率を追いすぎてしまい、そもそもAIに聞かなくてもよい状態になってしまう。

これはAIの特性を無視して、従来のシステム通りに動かそうという思想から抜け出せないためだ。「正しく使わないと正しく動かない」という昔の癖から抜け出せていない。

ただし「正しく使わないといけない」という点は同意である。とはいえAIは、入力と出力が必ずしも一致しないし、再現性は求めてはいけない。正しく使う場合、AIから応答を受け取ってその成否を検証するのが正しいと言える。

また、再現性が厳しく求められるものは、再現条件が整っていることが多く、それはAIではなく従来のプログラムを使った方が良い。プログラムの代替としてAIを使うのは、用途が間違っているとも言える。

何を聞いたらよいかわからない

次に「何を聞いたらよいかわからない」という声を聞くことがある。

「何を聞くか」は目的である。目的の言語化ができない場合、正しい問いは作れない。

しかし「正しい問いを作る」というのは正しい一方で、前項の「正しいプロンプトを調べてから入力する」というのと同じ罠に陥ってしまう。AIの場合、わからないことを「わからない」と入れてよいのである。

わからないことがわからない場合は、それでも雑に入力してみるといい。友達にしゃべりかけるように、口語でラフに問いかけてみればよいのだ。

最初は戸惑いやすい人もいるのか、と思うかもしれないけど、これは慣れの問題でもあり初歩的な障壁でもある。「システムのように扱う」「1度の答えで完璧な答えを引き出さないといけない」「間違えたらだめ」と考える人も一定数いるようだ。

手段ばかり聞いて目的を与えない

いずれも類似している問題であるが、AIとしゃべっていると話がドリフト(ずれて)していき、振り回される人がいる。AIに対して質問はできているのだけど、その答えを受け取ってそれが何であるか理解できない人がいるようだ。

これは「○○は××ですか?」と端的な質問を繰り返し、AI側が「なぜそれを聞かれているのか」がわからないまま補完して答えてしまうからだ。

同じ問いでも、目的によっては180度回答が異なる設問もある。これも初歩的ではあるが、AIには思いつく限りの目的や背景を入れてみると、答えてくれる精度が変わってくる。

毎回大量の文章を入れないといけないのかというと、目的の本質を突く文章が作れるなら少なくてよいし、AI側も長期メモリを持っているものが多いので、1度言ったことは覚えてくれることもある。

しかし「なぜそれをするのか」「何のためにやるのか」がわかるように目的をプロンプトに含めると、格段に回答精度が変わる。

また、AIの回答を鵜呑みにせず査閲して、自分の問いに正しく答えているかを考えることも重要だろう。

AIにも知識やツールを与える

これはAIコーディング時における初歩的な話であるが、AIモデルがいくら何億パラメータを学習して博識だといっても、暗算で計算させるより電卓を渡した方が計算結果は早く正確なことは想像しやすいだろう。

AIは言語のパターンマッチングをしているようなもので、与えられた問いに対して「正しい文章になるように」確率論で文章を組み上げているに過ぎない。

そんなアプローチで計算や完璧なプログラムを作ろうとすると難しそう、というのは容易に想像ができる。暗算の達人であっても、大会でもなければわざわざ暗算で仕事の計算をさせることに意味がないのと同じだ。

つまりAIモデルがどれほど高性能でも、プログラムの型エラーがわかるツールを渡したり、検索をしたり、結果を確認できるものを使ったり、固有の知識を与えたりしないと正しく動かない。AIも人間と同じく「便利なツールを与える」という発想を持つようにしよう。

AI自身にAIのことやAIエージェントの設定を聞いたりやってもらう

これはだめなパターンではなく、トライしてみて価値のあるパターンだ。

ほんの数年前では、みな「AIは自分のことだから答えられるだろう」とAI自身について聞いたことがあるはずだ。しかし回答は全くのでたらめで、「ああ、AIにAI自身のことを聞いてもだめなんだな」と思ったはずである。

しかし、今年の最新モデルになると変わってきた。Claude Codeの設定なども、Claude Codeにやってもらうことが可能となってきた。もちろん正しい設定をしてもらうために、設定情報やリファレンスなどを渡すのはできる限り必要だ。

話題のOpenClawについても、自身に対する設定を聞いて設定をしてもらうことが可能だった(使用するAIモデルによるかもしれない)。

もちろん返ってくる回答や設定が正しいかは、人間が調べて受け入れる責任がある。しかし、まずダメ元でお願いしてみる、というのも有効な手段だ。

まとめ

まとめると、これらのコミュニケーションミスはAIに限らず人間同士でも起こることである。前提条件に立ち返る、目的を理解して共有するなど、コミュニケーションとしては基本的なことだ。

AIをシステムやプログラムに見立てて上手く使おうと立ち回るより、一人の人間のように接して、ざっくばらんに目的と情報を共有するのもよいアプローチだ。

  1. AIを従来のシステムのように期待しない
  2. 目的と情報は余すことなく共有する
  3. 1度の回答で正解を得ようとせず、問答相手として活用する
  4. 回答が正しいかどうかは、受け手の人間の責任として確認する

これらを間違えなければ、AIには多少ぶれた内容を入力しても問題ない。勘のいい人は体感的にそれを感じ取り、チャッピーなどと呼んで使いこなしているだろう。

何を当たり前な、と思うような初歩的な内容ではあるが、案外悩んでいる人もいるようなので自分なりに備忘録をまとめてみた。

ただ、AIの進化は早く、この備忘録さえも数日のうちに解消されていく気がする。