本日の Note に書きました。
AIのDeep Research であっても信用してはならないことがあります。

その情報、どこから得たの?

情報の一部は正しくても、解釈を間違えていることが多いのが AI です。

これは、GeminiとChatGPT に留まらず、Perplexity や Claude でもです。

勝手な解釈をするのが「生成AI」だということです。
これはなくなりません。

https://note.com/yeyshonan/n/nb0645098c36d