
最近はテレビのニュースなど、自動音声がよく使われている。
なぜか、それには必ず告知があって、本物の人間のアナウンサーが、
「これからは自動音声でニュースを続けます」というようなアナウンスをして、
自動音声が始まる。
そのアナウンスぶりは本物とそう変わらない。
以前ならずっと人間が喋っていたのに、
今は機械に任せることができるので、
経費も安くて済むのかもしれないが、
果たして自動にする必要があるのだろうか。
自動音声が始まった頃は、
「これは人ではなく機械が喋っている」と気にしていたけれど、
今は何の違和感もなくニュースを聞く。
その内、わざわざ自動音声を知らせる告知もなくなるだろう。
以前はそんなふうに文章を読み上げるソフトはとても高価で、
漢字の音読み訓読みの違いも多く、とても不自然だった。
読み手の声は男女や子供とかを数種選べたけれど、
自分が使う特別な熟語や地名などは登録していく必要があった。
そうしたソフトは人間の手によって進化していくようになっている。
今のAIやロボットも結局はそういうことなのだろう。
ただ単純な熟語の読みとかではなく、
複雑な情報を次々つ学習していくのである。
その場合、人工知能は絶対多数の人間の意見を参考にするだろう。
スマフォの写真も録音も全てがビッグデータとして集約されている。
顔の表情や音声の強弱、抑揚などで人のデータを幾多読み込ませ、
それらを感情と関連付け表現するかもしれない。
それとももっと違った方法かもしれない。
今のうちは百科事典的なものだけれど、
人間の感情を理解するようになる時は近い。
理解されれば支配もたやすい。
SF映画が現実となる。
そして、もっと高じると脳内で考えていることさえAIは暴くだろう。
恐い世の中になったとつくづく思う。
風に倒れた庭のトマトの複雑な枝の絡み合い、
これこそ現実だ。