アイディアと意見

日記を書くのも久しぶりになってしまった。

表題は、自宅にある本の一つである、
Ideas and Opnion, Albert Einstein, Based on Mein Weltbild, edited by Carl Seeling, and other sources, New translation and revisions by Sonja Bargmann, Wings Books Crown Publishers inc. 1954, Random Hose inc., NY, USA ISBN 0517003937

からのタイトルということです。

彼の論文及びスピーチは、原子力エネルギー、相対性理論、人権への信条、政府や経済まで、多岐にわたります。この時代の風景を想像すれば、ヨーロッパではナチズムの洗礼に洗われ、「優生学」という危険な学問と「政治」が結びついたことで、多くの罪無き人たちが、監獄に送り込まれたという悲しい時代だったのだと思います。こんな中で、政治と時代に翻弄されたアインシュタインの主張は、彼の心から生じる叫びでもあったと思うのです。

そもそも、「全体主義」が出現する最大の原因は、「多様性」を失うことにあります。ある特定の「組織」やある特定の「団体」、さらにはある特定の「個人」が真理を保有しているという、「間違った主張」もしくは「心理的操作」に基づきます。これは、ルネッサンス期において、否定されていることでもありますし、私達の住む日本でも戦後一貫して否定されてきていることでもあります。

インターネット革命が、「情報」や「知識」流通さらには蓄積の「革命」であり「ルネッサンス」であるというのは、こんな理由に基づくのです。ただし、その上を流れる情報やデータに関しては、どれだけ「信憑性の高いものであるのか?」さらには、どれだけ「事実に基づくのか?」を判別することは困難になりつつあります。

多くのホームページは、様々な目的で情報が発信されています。それぞれのホームページには、それぞれの作者の思いであったり、システムとしての利便性を提供したり等の目的があるのだと考えることは妥当です。また、システム管理への注意喚起を目的に発信されている情報もあります。このあたりは、目的に応じて情報を集める必要がありますし、実際そのような検索エンジンも出現しています。今後は、情報の信頼性の関係評価であるとか、コンテキストに基づくクラスタリング等も必要になるでしょう。そのコンテキストには、無論「XML」で記述されたタグが半自動で付与されたり、「MetaLanguage」で記述された「SemanticWeb」のような仕組みになっていくでしょう。このことによって、情報発信者のコピーライトが守られると同時にパブリックドメインとなる仕組みができるのかもしれません。つまり情報のトレーサビリティを保証できる仕組みになる可能性もあるのです。

悲しいことは、インターネットというバーチャルな世界では、悪意のあるコードを流通させたり、貴重なデータを盗んだり、改ざんしたり等の危険も存在します。このことは、それまで性善説で運用されていた、公的研究機関のシステムへの脅威となりました。つまり、せっかく集めた貴重なデータを公開して、多くの研究者(アマチュアの方、さらには理学に興味のある人たち)の方々と伴に研究を進めることが可能でしたが、そのような悪意のある行為によって、残念ながらシステムとしては閉じられてた仕組みとなってしまったのです。

この原因を探れば、犯人には「遊び心」もあったのかもしれませんし、「自己顕示欲」やその他の理由から行われた可能性があります。ここで区別しなければならないのは、本来の「ハッカー」と呼ばれる人たちは、「コンピュータ」の「エキスパート」であること。

具体的には、インターフェースカードを自分で作ってしまったり、プリミティブなコードをハンドアセンブルしたりして最適化を行ったり、さらにはコンピュータアーキテクチャーにまで精通していたり、ネットワークプロトコルにも精通している人たちであるということです。

それに対して、クラッカーと呼ばれる人は、コンピュータシステムへ認証も無く侵入したり、ログインのアカウントを勝手に盗み出してコンピュータシステムへ侵入する等の行為を行う人たちを指します。問題は、そのような行為によって、システムトラブルが起こるということに問題があるのです。

実際には、セキュリティシステムを強化したり、暗号化アルゴリズムを改良したり、セキュリティホールを見つけたり、セキュリティポリシーを作成するに当たり、そのシステム管理者の許可を得て行うことも実際にはあります。

つまり、許可無くシステムを破壊する人たちをクラッカーと呼ぶのです。たまには、運悪く書いたコードが外のシステムに影響を与える場合もあるでしょう。これは仮説ですが、インターネットワームという仕組みは、ロボット検索エンジンでは使われている仕組みでもあります。また、インターネットワームを上手にコントロールできるのであれば、「データグリッド」や「計算グリッド」、さらには「自動化ソフトウエアアップデート」の仕組みを作ることも可能になります。しかし、ワームをコントロールすることは非常に難しいことは確かでしょう。

ゆえに、近年のシステムでは、そのような目的で使われるコードでは認証系を持つ仕組みであるとか、人が判断できる仕組みというものがあると考えることは妥当なのです。つまり、ワームを上手にコントロールできる仕組みを作るのも人間の技術だということです。

願わくは、インターネットという世界において共存と繁栄のできる時代になりますことを・・。