ChatGPTとの会話で解ったこと②

挙動その2

ChatGPTで指示したことを守ってくれないケースがある
私の場合は「ある程度仕様を詰めてから疑問点がなくなったあとコーディングをしてもらう」という形で
コーディングをするのだが「仕様も決まってないままいきなりコードを長時間吐き出す」パターンに遭遇する

これは仕様を決めてもないまま勝手にコードを書こうとして意図しないものを延々吐き出すとても厄介な状態
どうやらそれにはルールをきちんと言い聞かせる必要がある。

「コードは書かないでね」と明示的な指示を書いた上であればそうはならないが
AIが気を利かせたうえで想像でコードを書き始めると「出力が終わるまで手が止まる」ので効率が悪い
明確に指示があるまではコードを出力しないように保存されたメモリに入れてもらうことが良い。


挙動その3

禁則事項についての挙動が激しく感じる場合がある

どうやら「犯罪に関すること」「性的な場合」にも「ガードがある」というのを見つけている
「購入に絡む場合」もその一つのようだ

どういうことかというと例えば「中華製の部品を使って何かを作ることの話」で「amazonから購入してこれでやる」みたいなことを書いている場合に「ChatGPT側からそう言う【自己責任】になる場合で金銭が絡む場合」は
かなり安全よりな提案をするようだ

おそらく「ChatGPTの言う通りに購入してトラブルが合った場合の賠償責任」などへの警戒だと思われる
他にも火災や破損についてなどのリスクも考慮して「あまり適当にそう言うアドバイスをしないように」言明されているようだ

考えてみれば当たり前で日本ではそうでもなく欧米では「すぐ訴訟」になるわけだから安全策として妥当である
今回その話をしていた内容としては「2.5インチSSD2台をUSB接続できるケース」を探していた時の話で
amazonでUSBtoSATAのケーブル2本と2.5インチ増設ドライブの枠でなんとかなるという話を
相談していたのだが「いつもと違い彼が否定的な回答」ばかりするので聞いてみて判明したのである。

いつもは代案を出す事はあっても否定的なことを言わないので不思議になって聞いてみた結果わかった
他にも「環境テロリスト」についての話をしたときに「テロリスト」という単語が入っているため過剰に反応されたことがある
テロは犯罪行為である事が前提だとしてもかなりの剣幕で反論されてびっくりした。
もちろん私は犯罪行為をするために聞いているわけではないのだがシステムが少しでもリスクありと判断されればそう言う対応になるらしい