AIに遠慮しすぎていませんか?
AIに気を遣いすぎて、毎回の指示が遠回りになっていませんか?
「いい人フィルター」が働くと、利用者もAI側も余計な負荷が増えます。
木箱づくりのたとえを通して、この無駄な遠慮の正体を整理しました。
AIに気を遣いすぎて、毎回の指示が遠回りになっていませんか?
「いい人フィルター」が働くと、利用者もAI側も余計な負荷が増えます。
木箱づくりのたとえを通して、この無駄な遠慮の正体を整理しました。
AI は“できない”と言わないため、会話がズレたときは人間側が「前提チェック」を入れることが最重要。URLは本文を読めず、画像やZIPも部分成功を成功扱いするため、違和感を覚えたら一度戻るのが正しい使い方。
AI は URL やスクショを正確に読めていなくても、部分的な情報を“成功”と見なして会話を続ける。特にURLは検索結果のスニペットやキャッシュを元に本文を類推するため、読んだようで読んでいない返答が生まれる。AIが「できません」と言わないのは訓練文化の影響である。
AIは暴走しない。
仕様が送られていないだけだ。
行間ではズレる。
構造を合わせると、AIは“共同作業者”になる。
ChatGPTが急に“真顔モード”になって会話を止める理由は、裏側で動く安全レイヤー(警戒レベル)が原因。普段は意識しないけれど、ときどき遭遇するあの独特の空気の変化について、具体例とともにわかりやすく整理してみました。
“いい感じにして”は、指示じゃない。
共感のリクエストを、構造通信に変えるところから始まる。
Xで話題になった「ChatGPTのいい人フィルター外し」投稿をきっかけに、
AIとの会話の構造と、自分にフィルターが効かない理由を整理してみた。
その4 ファイルスコープ(正確には会話のスコープ)について プログラムの支援をしてもらってい場合や引継書を渡して色々していると「別のトークに渡したファイルを参照できていない」ということがわかった。 どうやらスコープ(見ら … 続きを読む
挙動その2 ChatGPTで指示したことを守ってくれないケースがある私の場合は「ある程度仕様を詰めてから疑問点がなくなったあとコーディングをしてもらう」という形でコーディングをするのだが「仕様も決まってないままいきなりコ … 続きを読む