AIに期待を寄せる流れの中で
人は、知っていても意見できないことがある。
それは、1%でも嘘や間違いがある、裏付けが曖昧だと気づいてしまうから。
つまり「正しくあろうとする」意識故に、答えることができないのだ。
一方で、「正しくなくてもいい」というスタンスにすれば、誤った解答をしてしまうことに抵抗がなくなり、正しく答えられたらそれは評価される。
両者の違いを軽視すると、AIに質問して、何かそれっぽい答えが返って来た時に「AIってここまで進化したのか!」と素直に驚くだろう。
一方で、人間社会では10回の内2度3度間違えた答えを発したなら、たとえ残りが正しくても答えとして注目されることはないだろう。
だからこそ、確信した事実だと自身が思ったことを人間は意識的に発している。
問に答えるAIの分岐点を超えるには?
何か質問された時に、AIが何か答えたとしても、実はそれ自体はそんなに凄いことではないだろう。
明日の天気は?と聞かれて、「晴れ」と答えても「雨」と答えても、「低気圧が接近しているから」と理由まで触れたとしても、それだけでは分岐点を超えたことにはならない。
端的に言えば「感情」をどう再現できたかで、天気の質問を我々がされた時も、実はなんとなく「晴れ」とか「雨」とか答えることができてしまう。
理由を聞かれてとしても、「空に雲が多かった」といえば、それっぽい話になる。
ところが、「人って結局、なんだろう?」というような質問になった時に、文化や歴史などの視点で情報が羅列されても、それは天気の話と同じで、擬似的な答えでもできてしまう。
しかし、「感情を持っていることじゃないか?」と答え、その理由として「忘れるか面白い」と言ったとしよう。
最近、こみち自身、物忘れが多くなった。
大切なこともすぐに忘れて、今日初めてのことに感じる。
だから、過去にもした行動を繰り返し、結果的に同じ結論に行き着く。
これがもしも一切忘れることが無かったら、過去の失敗は繰り返したりしないだろう。
スーパーマーケットに並ぶ商品の中で、不味いと思った商品は買うことができない。
でも、持ち金がそれしか買えない時に、どうすればいいだろう。
「別の店に行けばいい」とAIは迷うことなく答えかもしれない。
「見つからない時は?」と質問すると、「それでも探す」と言われるか、「買えるものを買えば?」と妥協案が出るかもしれない。
でも、それも擬似的な方法で再現できるし、AIの人工知能でなければできない分岐点ではない。
例えば不足している資金を補うために、今すぐ働ける仕事を見つけたり、無料でも手に入る食材を教えてくれるという方法もあるだろう。
友人に貸してもらうとか、セールになるまでもう少し待つとか、解決策をピックアップすることもAIにしかできない解答ではない。
インターネットが変えたこと
「正しさ」を誰が担保するのかが、インターネットの登場で大きく変化した。
つまり、答える側が「正しくあろう」としていた時代から、「正しくない」かもしれない答えでも、それを聞いた側が判断するようになった。
そのことで、そもそも質問に対する答えには、「正しさ」を担保する心づもりがなくなった。
言い換えると、質問された時に「正解」であることを強いられなくなったのだ。
「私は何歳まで生きられるだろうか?」
「これからどう生きればいいだろうか?」
捉え方によっては、哲学的で、その答えを導く根拠をどこから探し肯定するのかに人は悩んでしまう。
しかし、答えに正しさを担保しないのであれば、平均寿命を例にしてもいいし、生き方というワードで検索した情報を再構成してもいいだろう。
それが正しいかどうかではなく、それっぽい答えを返すことが目的だから。
「正しさ」を担保する意義
では、「正しさ」を担保するために、人はどう「感情」や「人生観」を導いたのだろうか。
残念ながら、誰しも忘れしまうことがあって、失敗もミスも繰り返し、でもその限られた中で「人生観」を探そうとする。
言い換えると、正しくありたいと願いながら、人間にはそれが叶わない現実がある。
だからこそ正しくありたいと思うのだろうし、でも導き出した答えにも迷いや疑いが含まれている。
だからこそ、人間は正しいことを求めてはいないと結論づけてしまえば、何も人工知能そのものが作れなくても十分に目的を果たせるプログラムは作り出せる。
一方で、人間の英知を超えた、絶対にミスも失敗もしないAIが出来たとしても、質問に対して人間はそれを実行できないから、答えが意味を成さないことになる。
「なぜ人は生まれたのでしょうか?」と質問しても、「言って分かりますか?」と聞き返されるだろう。
AIが人間の知能を超えた時、人間にはそれを知ることができない。
超えそうな状況を感じ取り、理解できないことが増える中で、いつしか人間を超えてしまうのだろう。
例えば社会問題を質問して、我々が正しいと思い込んでいる答えと異なる解答をした時、人間はそれをどう理解するだろうか。
「ちょっと違うけど、答えてくれた」と思わないだろうか。
言うなれば、質問に対する答えを導くことそのものは難しくなくて、でも実際にそれを信じてやり遂げられるかが人間に問われる。
本当の結論を言われて、あたふたしないために、人工知能は常にそれっぽい人間に寄り添った答えを探している。
つまり言い方を変えると、絶対に答えを知らないといけないような質問があるだろうか。
不完全な人間社会で、戸惑いながら生きる我々にとって、正しい答えが導かれても、そもそもそれを実行できないし、誰かがどこかでミスや失敗をして、その状況では無くなってしまう。
だとしたら、現時点での答えをその都度聞き直すしかないのだから、答えを知ることもそれほど重要ではないだろう。
つまり人工知能知能が開発できないのは、開発できても意味がないというパラドックスになってしまうからだ。
っぽい答えに安心する人間に対して、正しい答えよりも、それっぽい答えをいくつかピックアップするプログラムの方が、人間が考える「人工知能」に近いだろう。