人工知能と言えば、単純な受付事務から複雑で見落とししやすい医療関係の画像解析、そして車などの安全運転、複雑な装置の運転など人間の仕事を手助けするツールと考えていた。
ところが最近になってもっと複雑な仕事をやらせることができるようになり、各方面から問題が出てきた。
ChatGptで世の中に流れている膨大なデータをある確率に基づいてピックアップし、最も文章らしく作成できるというのだ。勿論人間の手による「調律」も必要ならしい。ChatGptni課題を与えるとき「何でもかんでも」と言うわけにはいかず、ある程度の制限が必要だ。
人間と機械が一緒に作業するのだからいろんな問題が出てくる。採用するメリットが大きければ大きいほどリスクも大きくなる。だから各国が「規制のやり方」を検討している。
例えば、バイオテロの危険も大きい。病気の治療に役立てることが重要だが、逆に病気をつくることもできる。また、ロシアのような専制君主国家であれば大統領が戦争のツールに使えばかなり危険だ。
今、我が国では小学校から大学、企業までChatGptの採用を検討しているという。学校で宿題を出すと簡単に作成し皆が同じようなレポートを作成、提出することができる。全く同じ内容ではないだろうが、内容は酷似している。論調、基準語句が似ていれば、ChatGptをしようしたことになる。
しかしこんなツールを使ってレポート作成が研究、勉強になるのか。他人のレポートの侵害になるし、内容の真意も判断できかねるものもある。
個人のレポートとしてどう個性を出していくか。最近では大学の教授の研究報文に疑惑のあるものが見つかり報文を取り下げる例も出てきた。
特許や研究論文だって内容のわからないものも出てくるだろう。
これから大事なのは、真意を判断できる能力を持つことができるかだ。
0 件のコメント:
コメントを投稿