ChatGPTの弱点発見 ChatGPT4+Bing検索 を使ってくるAIの論破?ができた。「人間が不要になる可能性あり」
ChatGPTに負けたくない人はおすすめの記事です。ちゃんと調べて書ききれてないので話半分で読んでください。
悪用対策にもつながる可能性があります。
今回ChatGPTの論理思考が一定水準までしかできないことが分かった。
ボキャブラリーの数は最強だから、結論に対する論理思考に限界がある可能性があるとは判断した。
ChatGPTの悪用が怖くなって自力で色々考えて、質問攻めなどしてみました。
ChatGPT4+Bing検索が使えるAIを使って人間が不要になるか話してみました。結論から言うと「人間が不要になる可能性があります。」また、間違いをしてくすることができました。
質問内容
このように質問しました。 会話内容は割愛します。
修正の指摘
このように修正を認めてもらえました。
その後
その後会話をしてて気がついたらのは、結論に対する繋がりの数が多すぎると、一つ一つ教えない限りChatGPT4は理解ができない事がわかった。そのためChatGPTに負けない為には、答えの繋がりの数と、複雑な繋がりを意識して答えられるようにするとChatGPTより賢くなります。
色々調べてわかったことが偏差値60ぐらいなので、それ以上の繋がりが多く複雑な答えを出して解説できるようになりましょう!