FC2ブログ

ホーキング博士3つの警告

2018.11.25 (Sun)
cder (1)

今回はこういうお題でいきます。今年の3月に亡くなった、
「車イスの天才物理学者」スティーヴン・ホーキング博士についての話です。
博士は、学生時代に筋萎縮性側索硬化症(ALS)を発症しました。
ALSの予後は5年程度と考えられますが、博士の場合は不幸中の幸いというか、
途中で病勢の進行が弱まり、76歳まで存命されました。

これは、イギリスの男性の平均寿命とそれほど変わりません。
おそらく、最先端の治療を受けていたのだと考えられます。晩年は、
生命維持装置や合成音声による意思伝達装置を搭載した
車イスによる生活でしたが、50年以上にわたって研究を続けてきました。
博士の死に際しては、当ブログでも追悼記事を書いています。

さて、博士の晩年は、神の不在に言及したり、
科学の進展によるバラ色の未来を謳うというよりは、人類の未来を悲観した、
警告的な内容の言説が多かったと思います。表題に書いたとおり、
その内容は大きく3つあるんじゃないかと、自分は理解しています。

cder (2)

一つめは、地球外知的生命体に関するものです。ホーキング博士の持論は、
「宇宙人とは接触してはならない」で、これは生前、再三にわたって
インタビュー等で主張されています。ですから、現在行われているSETI
(地球外知的生命体探査)の活動にも批判的でした。

2016年、中国の口径500mの巨大望遠鏡「天眼」が、宇宙からの信号
らしきものをキャッチしたというニュースが伝わったときには、間髪を入れず、
「応答してはならない、宇宙人に地球の場所を教えてはならない」との
声明を出されました。これはまず一つには、ホーキング博士には、
「宇宙人は必ず存在している」という確信があったためだろうと思われます。

「天眼」
cder (5)

それと、もし地球からの信号をキャッチした宇宙人が、地球に来ることができる
手段を持っているとしたら、それは地球人類よりもはるかに文明の
進んだ存在であるはずなので、接触することは、けっして地球のためにはならない、
と考えられていたようです。ただし、これは必ずしも「宇宙人性悪説」
に立ってのことでもないようなんですね。

博士は、「宇宙人が、人類がまだ発展段階にあるこの地球に来ることは、
コロンブスが新大陸を発見したときと同じように、
全人類にとっよいことではないかもしれない」と述べられており、
もし宇宙人に侵略の意図がないとしても、上位文明との接触は、
人類にとって、さまざまな混乱をもたらす可能性が高いということでしょう。

cder (3)

警告の2つめは、AIの脅威に対するものです。ただし、これも誤解があって、
ずっと機械装置の助けを借りて生きてきたホーキング博士は、
AIの開発そのものを否定していたわけではありません。
2017年の科学誌のインタビューでは、このように述べています。

「われわれはランプの魔神ジーニーを解き放ってしまいました。
もはや後戻りはできません。AIの開発は進めてゆく必要がありますが、
危険とまさに隣り合わせであることを心にとめておかなくてはなりません」
AIが自意識を持ち、人間に反抗して攻撃してくるというSFは、
映画の『ターミネーター』のシリーズなどいろいろありますが、

ホーキング博士は、それだけではなく、「AIの本当の脅威は、
彼らの悪意ではなく競争力です。超知性を持つAIは目的の達成のために
とてつもない能力を発揮するでしょう。ただ、その目的が我々と合致しない場合、
人類は危機に陥ります。あなたは悪意をもってアリを踏み潰すような“アリ嫌い”

ではないと思います。しかし、もしあなたが水力発電の開発プロジェクトを
担当していて、その地域のアリ塚を水浸しにしてしまうとしたら、どうでしょう? 
その場合、人間にアリを殺す意図がなくても、
アリたちにとってはとても不幸な事態です」このように述べ、AIの高い能力と、
強い目的遂行性から、偶発的な事故が起きる可能性をも視野に入れていたようです。

cder (6)

さて、博士の警告の3つめは、生命科学、遺伝子操作に関するものでした。
「人間の遺伝子編集に反対する法律ができると思いますが、記憶力の向上、
病気への耐性、寿命を延命などといった魅力に抗えない人もでてくるでしょう。
そうしたスーパーヒューマンの出現は、彼らと競争できない
未改良の人間たちにとって、大きな政治的問題になるでしょう」

これも以前に当ブログで取りあげた内容ですが、人間の遺伝子改変を国際条約で
禁じたとしても、必ずそれを破る国家が出てくるのは歴史が証明しています。
これは何も中国だけの話ではなく、アメリカだって、国際条約で禁じられている
生物化学兵器の研究はずっと継続して行っています。

さてさて、では、この3つの警告のうち、どれが最も危険性が高いんでしょうか。
宇宙人の話は、宇宙人が必ずいるとは言い切れないですよね。
また、銀河間航行、恒星間航行ができるには、
かなりの高い文明レベルが要求され、すべての宇宙人は、
そこまでには達していないかもしれません。

AIの脅威については、AIが自意識を持つようになるには、
自分は、まだまだ相当に長い時間がかかると考えています。
機械が意識を持つといっても、そもそも「意識とは何か」について、
現在の人類は、ほとんど何もわかっていない状態です。

cder (4)

一番近づいているのは、3つ目の「遺伝子改変によるネオ・ヒューマン」の
誕生だと考えます。ヒトゲノムの全塩基配列の解析から15年がたち、
この分野は、倫理的な規制がなくなれば、
飛躍的に伸びるだろうと思うんですよね。ホーキング博士の危惧が、
現実のものにならなければいいんですが。では、今回はこのへんで。

関連記事 『ネオ・ヒューマンの誕生』  『ホーキング博士追悼』



関連記事
スポンサーサイト




トラックバックURL
http://scoby.blog.fc2.com/tb.php/1672-5c733e28
トラックバック
コメント
管理者にだけ表示を許可する