ChatGPTのような対話型のAI(生成AI)は、まるで人間のように自然な文章を作ってくれますが、実は「指示待ち」の状態です。こちらが何も言わなければ、何もしてくれません。
このAIに送る「指示」や「命令文」のことをプロンプト (Prompt) と呼びます。
そして、このプロンプトを工夫して、AIからできるだけ賢く、的確で、期待通りの答えを引き出すための技術や考え方のことをプロンプトエンジニアリングと呼びます。
AIは魔法の杖ではありません。指示の出し方次第で、出てくる答えの質が天と地ほど変わってしまうからです。
身近な例で考えてみましょう。
【ダメな指示の例】
あなたが友人に「何か面白い絵を描いて」とお願いしたとします。
これだけだと、友人は「え、何を描けばいいの? 動物? 人? 風景?」と困ってしまいますよね。結果として、あなたが全く求めていなかった絵が出来上がるかもしれません。
【上手な指示の例】
一方で、「青い帽子をかぶって、大きなリンゴを持っている、笑顔のリスの絵を、水彩画のような優しいタッチで描いて」とお願いしたらどうでしょう?
これなら、友人はあなたのイメージ通りに近い絵を描いてくれるはずです。
AIとの対話もこれと全く同じです。