AIを「使う」人とAIに「使われる」人
2024/1/16
Chatgptに触れてみて
先日、Chatgptについての記事を書きました。
それ以来、毎日Chatgptを使うように心がけています。
まだまだ利用頻度は少ないですが、毎日使っていると、なんとなく
「こういうことはできるんだな」
とか
「こういうことは苦手なんだな」
ということが感じられてきます。
そんな中で、
「こういう風になれば、AIを『使いこなす』人になるのかな」
「こういう人は、AIに『使われる』人になるのかな」
というようなことが、おぼろげながら感じられるようになってきました。
AIが使いこなせる人
まず、AIが「使いこなせる人」というのは
「自分で考えられる人」
「適切な指示が与えられる人」
だと思います。
最先端の技術がどのくらいまで進んでいるかはわかりません。
ですが、Chatgptに関しては、「こちらから(人間)の指示」がなければ、適切に動きません。
また、「ふわっと」した形の指示だと、こちらの意図した結果を導いてくれないことが多いです。
なので、
「自分で考えて、適切な指示が出せる人間」
というのが、AIを使いこなす人になるのではないか。
そんなことを感じました。
また、Chatgptは、
「自分でデータを読み取って、論理的に物事を組み立てる」
という部分が、まだ人間と比べると弱いような気がしました。
そういったことを考えると、今の入試が志向している
「思考力、判断力、表現力を持った人材」
というのは、いずれやってくるであろうAI時代に必要とされる人材の育成に、十分適っているように思いました。
なので、生徒たちは、自信を持って目の前の勉強に励んでほしいと思います。
AIに使われてしまう人
逆に、AIに「使われてしまう人」というのは、
「自分の頭で考えない人」
「言われたことだけやる人」
です。
アメリカでは、医学部や弁護士試験に合格するようなAIがすでに存在している、という話も聞いたことがあります。
そうなると、
「人間よりも優れた頭脳を持つAI」
はすでに存在している、と言っていいのかもしれません。
そうしたAIの頭脳の言うことを聞いた方が、正しい答えが導ける。
ただ、その時に人間に求められるのが、
「AIが導き出した『答え』というものが、本当に正しいのかどうか」
というものを「見極める目」です。
人間というものは複雑なものなので、「正しい」ということでも、状況によっては、「正しくない」結果になることがあります。
そうした時に、画一的にAIが導き出した答えを「機械的に」人間が使うのか、あるいは「自分の頭で考えて」判断するのか。
この「自分の頭で考えて」行動できるかどうか。
「自分の頭で考えない人」
「言われたことだけやる人」
というのは、この部分が弱いです。
なので、AIの導き出した解答そのままに行動することしかできなくなる。
そのような気がしています。
「言語力」も重要
あとは「言語力」が重要になるのかな、という気もしました。
AIに指示をする場合にも、またAIが導き出した答えを読み解くにも、「言語力」というものが問われます。
人間であれば、特に親しい間柄であれば、「阿吽の呼吸」でわかる、ということが成立します。
ですが、「AI」相手では、それが通用しない。
そうなると「言語力」というものが、これまで以上に問われるのではないか。
そんなことを思いました。
「先の見えない時代」と言われるが
新しい技術が急速な勢いで次々に出てきて、「先の見えない時代」と言われています。
確かにそのとおりだと思います。
ですが、その一方で、そうした「先の見えない時代」であっても、「求められる力」というのは、時代を超えて不変なのではないか。そう思います。
その「求められる力」とは
「読み、書き、そろばん(計算)」
です。
どのような先進的な時代になったとしても、「人間の本質」ともいえる、この部分の能力を高めておけば、とりあえず「なんとかなる」のではないか。
毎日Chatgptと格闘しながら、そのようなことを思っています。
※猿田塾へのお問い合わせは、こちらから