| Bottom | Home | Article | Bookshelf | Keyword | Author | Oxymoron |


Backward towards the future

Distributed Computer Systems

Cat: ICT
Pub: 1993
#: 0631b

David J. Farber

up 6705

Distributed Computer Systems:
Backward towards the future


David J. Farber





  • This is a summary of thesis of David J. Farber, Professor of Computer and Information Science, University of Pennsylvania.
  • He mentions that there is a limit of one gigabit network in the computer-communication architecture, also indication various past issues on the distributed computer systems proposed two decades ago still remain unsolved even two decades.
  • これはDavid J. Farber、Pennsylvania大学教授の論文の骨子である。
  • 彼は、コンピュータ・コミュニケーション・アーキテクチャにおいて1Gbpsのネットワークに限界があることを示した。また過去の分散コンピュータシステムに提起した課題は、20年を経てもなお未解決であることも示した。

1. The advent of gigabit network:

  • The advent of gigabit network technology has inspired a rethinking of the structure of network computers, operating systems, and protocol structures. We will examine the way in which various components of a computer system are affected by their use in networks that give host-to-host potential throughput more than one Gbps. A short summary of this examination follows: EVERYTHING IS BROKEN

1. ギガビット・ネットワークの登場:

  • ギガビットネットワーク技術の登場は、OSやプロトコルなどネットワーク・コンピュータの構造を再考を迫っている。相互に1Gbps以上の速度で通信できるようになった場合のコンピュータ・システムの各要素のあり方を一言でいうと、既存のコンピュータ・アーキテクチャは、全部成り立たなくなってしまうのである。

Memory Bus:

  • Examining the bottom of the computer architecture, that is the processor to memory bus system.
    • This system, which in many modern computers also carries the majority of the traffic that comes into memory via the I/O system, provides, in its current form, a bandwidth in the range of one Gbps. Thus, data coming in from the outside at one Gbps will substantially conflict with the needs of the processor-memory pipeline. A number of solutions to this problem have been suggested.
    • The first and most common solution are to define another bus to serve as the memory- processor communication buses and use the main computer bus only for access to a dual-ported or multi-ported memory for the I/O system. This creates a number of difficult architectural problems and can notably increase the cost of the computer system.
    • Another approach is to treat the network as part of the path to a global multi-processor environment. In this view, the processor memory path is intrinsically the same as the processor network path and the problem then reduces to an issue of how to avoid multi-memory bank conflicts on the bus. However, this is an open and confused area. In the short term, it is probably the limiting obstruction to the widespread use of workstations on high speed networks.


  • まずアーキテクチャの最下層であるプロセッサからメモリ・バスにいたるシステムを再考する。
    • ほとんどの最近のコンピュータでは、トラフィックはI/Oシステム経由でメモリに入力され、その帯域は1Gbps程度である。従って、外部から1Gbpsではいって来るデータは、プロセッサ=メモリ間のパイプラインのニーズと相当程度衝突する。これに対するソリューションとしては以下があり得る。
    • 第一の、最も一般的な解決は、もう一つのバスをメモリ=プロセッサ間コミュニケーション用バスと決めて、メーンのコンピュータ・バスは、I/Oシステム用の2ポート以上のメモリへのアクセス専用とする。だがこれには面倒なアーキテクチャー上の問題が多数発生し、コンピュータのコスト高を招く。
    • もう一つの方法は、ネットワークをグローバルなマルチプロセッサ環境に至る経路の一つとして扱う。その場合には、プロセッサ=メモリ間の経路は、本質的にプロセッサ=ネットワークの経路と同一のものとなり、バス上での多メモリ・バンクの衝突をいかに回避するかという問題が残る。だがこの領域はオープンで混乱しており、短期的には高速ネットワークの上でWSを広汎に利用することを制限するようになるだろう。

>Top Interface Card:

  • Moving up the hierarchy to the computer-network interface, one encounters more problems. In order to get information into the computer from an external device, it is necessary to define some form of interface card which maps from
    the internal structure of the computer system to the format of the network.
    • Currently, cards are being developed which translate buffers of data into ATM format and then interconnect through SONET chips to the gigabit network.
    • Experience at the University of Pennsylvania has shown that, in many workstations, the I/O controllers are too slow to service the bandwidth requirements of such interface cards. This compounds the bus congestion problem and again creates a major bottleneck.
    • In the future, controller chips will help alleviate this problem. For example, the University of Pennsylvania
      ATM interface board is capable of operating at 650 Mbps but still not one gigabit.


  • 次に上層のコンピュータ・ネットワークのインターフェースでは、より多くの問題に直面する。外部デバイスからコンピュータに情報を取り込むためには、コンピュータ・システムの内部構造をネットワークのフォーマットにマッピングするような何らかの形のインターフェース・カードを定義することが必要になる。
    • 現在開発されているカードは、データのバッファーをATMフォーマットにトランスレートし、それからSONETのチップを通じてギガビット・ネットワークに相互接続するというものである。。
    • ペンシルバニア大の実験では、多くのWSにおいてI/Oコントローラはこれらのインターフェースカードの帯域をサービスするには遅すぎることを示した。
    • 今後は、コントローラ・チップの速度が増せばこの問題は緩和されよう。 ペンシルバニア大学の事例では、ATMインターフェイスボードは650Mbpsであり1Gbpsに満たない。


  • Even if information could be brought into a computer's physical memory fast enough, our problems have just begun. Modern operating systems, such as UNIX, have grown in size and complexity to the point that they create a major bottleneck for the utilization of high speed networks. Even without considering protocol processing, the manipulation of the operating system in moving data (as it comes in from an external network until it can be delivered to a requesting processor) involve a substantial number of memory-to-memory moves, each consuming considerable computer time.
    • This problem does not have an obvious solution. Rather, it suggests an approach that could be described as a "kinder, gentler operating system, which goes back to the original simplicity of the early UNIX systems as created at Bell Laboratories.


  • 情報がコンピュータの物理メモリに高速で入力できたとしても、問題は解決しない。UNIXのような現代のOSは規模と複雑性の両面で大きくなりすぎて、高速ネットワークの利用する際のボトルネックになってしまった。プロトコル・プロセシングを考慮しないとしても、(外部ネットワークからのデータが指定のプレセッサに伝送されるようになるまでの)データの移動に関するOS処理によって、それぞれ各メモリ間の移動を数多く繰り返しコンピュータタイムを消費する。
    • この問題での明白な解決はない。おそらくベル研が開発した初期のUNIXが元来持っていた単純さに帰着するより親切で優しいOSへの回帰が必要となろう。

>Top TCP/IP:

  • Moving up one more level in the pipeline of bottlenecks, we run into the protocol system. Modern protocol systems such as TCP/IP have evolved in response to slow-speed communication systems operating in the low one megabit range. These systems have been characterized by high error rates and modest bandwidth latency metrics. In modern networks, one may have hundreds of thousands of bits flowing across the United States in response to a request for information transfer. Protocol systems employ windowing mechanisms to deal with the management of such latency. In the case of gigabit networks, there will be millions of bits flowing in the pipe.
    • If we take a similar approach to protocol design. This amount of data would put an inordinate strain on any rational windowing system and, more seriously, make intelligent anticipation strategies extremely difficult.
      That is, it would be difficult for the system to know what to ask for so that the right information gets to the requesting post at the right time.
    • Even if we could solve, in a simple way, the above problems, the complexity of the resulting protocol systems would, when operating at the speeds anticipated in the future, require most, if not all, of the computing cycles available in modern workstations. In this case, only the fastest supercomputers would have the processing power to service such protocol systems. If one presumes that the purpose of computing is to compute and not to run protocols, then something is fundamentally wrong.


  • ボトルネックのパイプラインのレベルのもう一段上層では、TCP/IPのような今日のプロトコル・システムは、1Mbps以下で動作する低速のコミュニケーション・システムを前提として進化してきた。これらのシステムは、エラー・レートが高い反面、帯域の遅延はあまり大きくないという特徴がある。だが現代のネットワークでは、情報移転の要求に応えて米国中を何十万ものビットが駆け巡らなくてはならない。プロトコル・システムは、こうした遅延管理のために、windowing mechanismsを利用している。だが、ギガビット・ネットワークの場合には、パイプの中を何百万ビットもの情報が流れるので、そのようなメカニズムではもはや対応しきれなくなる。
    • より深刻なのは、インテリジェントな予測戦略が極めて難しくなることだ。 つまり、正しい情報が正しい時刻に要求された場所に到達できるようにするには何を要求すべきかということが知りにくくなるのである。
    • 仮にそれが単純な形で解けたとしても、それがもたらすプロトコル・システムの複雑性の問題に対処するためには、将来予想されるような高速動作時においては、今日のWSがもつコンピューティング能力のほとんどを使い切ってしまうだろう。そうであれば、このようなプロトコル・システムの要求に応えるには、最高速のスーパーコンピュータの処理能力が必要になろう。コンピュータの目的はコンピュティングすることであって、プロトコルを走らすことでないとすれば、何かが根本的に間違っていることになる。

>Top Switching System:

  • Moving up one final step, we turn to the switching systems that will, in the future, support very high speed networking. In spite of everything that has been said about the convergence of communications and computing, we still build networks, be they local or national, in a way that isolates them from the computers that are their customers. In a sense, the computers are like telephone subscribers dialing connections through the network, with the network refusing and unable to help in any of the transactions other that merely establishing connections. This isolation creates additional burdens on the computer systems. A richer interaction between computer and network-- indeed, a blurring of the distinction between computer and network--is necessary.


  • 最後の段階の問題になるのが、今後は極めて高速なネットワーキングをサポートするスイッチング・システムの問題だ。通信とコンピュータの融合についていろいろ言われたにもかかわらず、ローカルや全国的なネットワークを構築する際には、ネットワークをその顧客であるコンピュータから分離させるというやり方をしている。コンピュータは、ある意味ではネットワークを通じてダイヤルして接続する電話加入者に似ている。ネットワークは、単に接続を確立する以上のサポートはしてくれないし、出来る仕組みにもなっていない。このような孤立は、コンピュータ・システムにとって余分の負荷を生み出す。従って、コンピュータとネットワークの間のより豊かな相互作用、まさしくコンピュータとネットワーク間の区別の曖昧化が必要になる。

2. Back to the future:

PDP-11-like system:

  • In 1970, an experiment, called the DCS project attempted to create, by interconnecting a number of minicomputers, a system that would offer seamless user access to the computer system resources, fault tolerance, incremental expansion, and, most importantly, would look like a single computer to the using software. The resulting system, which went operational in 1973, utilizing a PDP-11-like system, contained a number of innovative ideas in its structure.
  • These included one of the first micro-kernels, a fully distributed fault tolerant file system, an inter-process communication structure based on messaging, and a process-migration structure supported, as was the inter-process communication structure, by the communication subsystem. The communication subsystem was the first operational token-ring, which, in almost all its details, preceded and formed the basis for the 805.6 token-ring. It included a mechanism within the communication system that knew about process names, allowing messages to processes to be sent around the ring.

2. バック・ツー・ザ・フューチャー:


  • 実は1970年代の前半に、DCSプロジェクトという分散システムの実験が行われた。これは多数のミニコンを相互接続し、コンピュータ資源にシームレスにアクセスでき、フォールト・トレラントで、拡張性があり、さらに重要なことには、ソフトウェアを使う上で単一のコンピュータのように見えていたのである。そのシステムは、1973 年にはPDP-11ライクなシステムとして稼働し、様々な革新的なアイデアが盛り込まれていた。
  • これらの中には、最初のマイクロ・カーネル、分散フォールト・トレラント・ファイルシステム、メッセージングに基づくインタープロセス・コミュニケーション構造、更には、コミュニケーション・サブシステムによるプロセス・マイグレーション構造をサポートしたインタープロセス・コミュニケーション構造であった。このコミュニケーション・サブシステムは最初のトークンリングであり、それは後に805.6として規定されるトークンリングの基礎となるメカニズム、例えばプロセス・ネームを認識して、メッセージをリング上に送達させる機能などであった。
  • >Top
  • In addition, the system could, by examining interfaces external to the computing system, determine if the processes addressed by these messages were resident in the attached processor. If a process was resident, a copy of the message was made and an appropriate indicator was put on the message, which continued around the ring. Resource management, process migration, and process binding all took advantage of the name tables that were in the ring.
  • Many of the ideas we will discuss later in this paper were around in the early 70's and are still reasonable ideas, as they have been for the past twenty years.
  • The Global Computer One of the hopes for the DCS was that by adding mechanisms to the communication system, enough assistance would be provided to the computer software system to allow it to operate in an efficient fashion. Thus, we expected that by putting multiple processors on the ring, performance that approached that of the sum of the processors would be achieved. This turned out not to be quite true for a number of reasons, the most important of which was that the processors were burdened by the need to repeatedly copy information coming in from the ring interfaces, through their I/O system, into the memory system.
  • Thus, DCS suffered from essentially the same problem we see in gigabit networks. Five years ago, when reflecting on the experience gained from DCS and from a companion system developed in the early 80's at the University of Delaware called SODS (Series One Distributed System), it was realized that if one continued to view local networks, such as the ring, as communications system that were serviced through the I/O mechanisms of computers, it would be difficult, if not impossible, to achieve greatly improved performance.
  • さらに、このシステムは、コンピュータシステムの外部とのインターフェースをチェックして、メッセージにアドレスされたプロセスがプロセッサ上に存在しているかを調べる。もし存在していればメッセージのコピーが作られ、メッセージに適当な印をつけてリングに戻す。リソース管理、プロセス・マイグレーション、プロセス・バインディングはすべてリング上にあるネーム・テーブルを利用する。
  • これら多くのアイデアは、すべに1970年代初頭に現れており、それらは20年経った今でも現在でも有効なアイデアである。
  • DCSの目標であったGlobal Computer Oneは、コミュニケーションシステムに機能を付加して、効率的に処理できるようなコンピュータソフトウェアのシステムをサポートしていた。こうしてリング上に多くのプロセッサを配置し、処理能力をプロセッサの合計に近づけようとした。実際には種々の理由でそうはならなかった。それは、特にプロセッサがリング上からI/Oを通じてメモリに入力される情報のコピーの繰り返しに追われていたからである。
  • こうしてDCSでは、ギガビットネットワークと本質的には同じ問題に遭遇した。5年前にDCSから得られた経験およびデラウェア大で80年代初頭に開発されたSODS (Series One Distributed System)システムによって、リングのようなローカルネットワークをコミュニケーションシステムとして検証すると、コンピュータのI/Oメカニズムがパフォーマンスの抜本的に向上させる上で、不可能でないにせよ困難であることを示したのである。

>Top 3. Memory System:


  • In response, a project called MEMNET was started. This project took the point of view that the memory system is a more natural vehicle for communication between components of distributed system than is a message-based system. In the MEMNET system, we used special memory cards, one per processor. These cards were coupled together through a 230 Mbps insertion ring. When a processor made a request to memory, the MEMNET card behaved like any other memory card in the processor.
    • The MEMNET card contained a large memory cache which examined when it saw an address on the bus to see whether the item was in the cache. If it was not, the processor was held and a request was made around the ring to all MEMNET cards to see where the requested memory object was. This object would be brought, through the ring, into the cache of the MEMNET card and then the processor request would be honored.
    • Since the ring was a broadcast ring, it essentially operated as a snooping cache, preserving ownership and providing proper data consistency. Experiences with MEMNET indicated that this approach is valid and that its performance is scalable up to a significantly larger number of processors.

3. メモリ・システム:


  • そこでMEMNETというプロジェクトが開始された。これは、分散システムの要素間のコミュニケーションにとっては、メモリ・システムの方が、メッセージベース・システムより自然な仕組みであるという見地に立っていた。そこでMEMNETシステムでは、1プロセッサあたり特定のMEMNETカードを1枚使用した。これの各カードには230 Mbpsでのリング接続機能を備えていた。プロセッサがメモリへ要求を出すと、MEMNETカードは、プロセッサ上の他のメモリカードのように振る舞った。
    • MEMNETカードは大容量のメモリ・キャッシュをもち、バス上のアドレスを見てそれがキャッシュの中にあるかどうかを調べた。なければリング上のすべてのMEMNETカードに問い合わせを出して、要求されたメモリ・オブジェクトがどこにあるかを探してキャッシュの中にとりこみ、プロセッサからの要求に応えた。
    • リングはブロード・キャストリングなので、スヌーピング・キャッシュとして機能し、データの同一性を保持した。MEMNETの実験の結果は、このアプローチには有効で、その能力はプロセッサの数によってスケーラブルであることを示した。

>Top The Next Step

  • When one examines the gigabit world, one can make a number of interesting observations. A gigabit network has bandwidth equivalent to a local processor bus. Thus, one is tempted to talk about a national MEMNET. An immediate reaction to this is, "Yes, but how can we have a processor waiting for a memory request that must travel across the United States to be satisfied?" This situation is equivalent to saying that certain requests to memory might have long latencies before they are satisfied.
    • This sounds familiar. It is the same behavior that a modern virtual memory paged computing system sees in normal operation. When a processor makes a request to memory for something from a page in such a system, often it gets it immediately, but occasionally it gets a page fault and the process is held waiting while the software system finds the page, brings it into memory, and then restarts the requested memory access. The page retrieval time is remarkably close to the time required for a transcontinental request for a missing object. Our modern computer system have been fine-tuned to operate efficiently in such a paged environment, and, indeed, there are a number of multiprocessor virtual memory computer systems on the market.


  • ギガビットの世界を検証する次のステップとしては、多くの興味深い観察結果が得られる。ギガビットネットワークの帯域は、ローカルなプロセッサ・バスと同等の帯域をもっている。となると全国的なMEMNETを考えてみたくなる。だがその場合には、米国中にわたるようなメモリ要求が満たされるのを待っているようなプロセッサなどありうるのかという疑問がでてくる。この状況では遅延が大きくなりすぎないかという疑問である。
    • これは、今日のバーチャル・メモリ・ページをもつコンピューティング・システムが通常の作業時に直面しているのと同じ問題である。プロセッサがこのようなシステムでページから何かをメモリに要求だしたとすると、それはすぐ得られるかも知れないが、時々は該当ページがなく、ソフトウェアシステムがページを検索してメモリに持ってくる間、プロセスは待ちとなる。このページを検索する時間は、見つからないオブジェクトを大陸の反対側から探してくるのにかかる時間とほとんど変わりがない。いまでのコンピュータシステムでは、このようなページ環境で効率的に動くよう精緻な仕組みを備えてきた。実際市場には、マルチ・プロセッサのバーチャル・メモリ・コンピュータ・システムが登場している。
  • >Top
  • Another observation one might make is that it is easy to find a missing page in a local environment and considerably more difficult to find that page (or object) when it is scattered among the geographically dispersed components of the Global Computer. Indeed, this is a valid observation. The response to this is to call for the communication system to help us. The communication system must take part in both finding the location of requested objects and, what is more important, in keeping track of the migration of these objects as they move around the Global Computer.
    • These issues are dealt with in the CAPNET proposal of Ivan Tam, in which a set of tables was to be added to each of the switches in a modern gigabit network. These tables are similar, but not identical, to the page tables in our modern computers. When a request for an item comes into the switch, a look-up is done in the page table to determine how to route the request based on whether the switch has seen the requested page go through it. This is similar in principal to the process-tables of the DCS system.
  • もう一つの疑問は、ローカルな環境の中でページを見つけ出すのに比べると、地理的に分散したグローバル・コンピュータの間に散らばっているページを見つけ出すのははるかに困難であろうということである。実際そのとおりである。だからそれを支援するコミュニケーション・システムが必要になる。それは要求されたオブジェクトを探し出すだけでなく、それらのオブジェクトがグローバル・コンピュータの間を動き回る際の移動経路を追跡しておく必要がある。
    • この問題に対処しているのがIvan Tamの提唱しているCAPNETで、そこでは最新のギガビット・ネットワークの中のそれぞれのスイッチに一連の表が追加されている。それらの表は最新のコンピュータが持っているページ表と同一ではないがよく似ている。ある要求がスイッチに発生すると、ページ表を検索して、そのスイッチがすでに要求されたページを見たかどうかによって、その要求をルーティングするように決める。 これはDCSシステムのプロセス表と本質的に同じである。
  • >Top
  • Somewhat remarkably, it is also similar to the mechanisms that must be put into switching fabrics to support the future mobile personal communications systems.
    • A person using a personal communicator would be free to migrate anyplace within the United States and could be called by an originating person who knows only his "name." The network would search to see where that communicator was last seen and would leave information within the switching fabrics so that a global search would not have to be done each time an attempt was made to connect to that person. As the person travels, the tables are kept up to date to minimize wasted searching. If one substitutes the word memory-object for personal communications system, one has essentially the same structure, except for some "minor" details.
    • This observation makes it feasible to discuss the actual deployment of hardware at the switching nodes that will support a Global Computer as well as personal communicators. Considerations of protection and data consistency suggest that, in practice, the items that are communicated within the Global Computer are not pages, but rather are objects that can provide ownership and access-protection mechanisms. This evolution of CAPNET is described in a paper by H. Kim called GOBNET, A Gigabit Object-oriented Network.
  • さらに驚くべきことには、おそらく未来のモバイル・パーソナル・コミュニケーション・システムのスイッチング・ネットワークにも、同様なメカニズムが組み込まれるようになるだろう。
    • 携帯機器のユーザーが、米国内のどこにいようが、どこに移動しようが、その名前がわかりさえすれば探し出すことが可能になるだろう。ネットワークは、最後に通信した人の場所を検索しその情報をスイッチング・ネットワークに伝えることでグローバルな検索は接続毎に行う必要がなくなる。その人が旅行すると、その情報テーブルは余計な検索をいないようにアップデートされる。もしパーソナル・コミュニケーションシステムの代わりにワードメモリ・オブジェクトを使うと、詳細は別として構造的には同じことができる。
    • このことはグローバルコンピュータのみならず、パーソナル・コミュニケータもサポートするようなスイッチング・ノードにハードウェアを配置する議論が現実味を帯びてくる。データの同一性を保持することを考慮するとグローバル・コンピュータ内の通信はページではなく所有とアクセス保護メカニズムを提供するオブジェクトとなろう。これはH.キムの言うギガビット・オブジェクト指向ネットワーク(GOBNET)でありCAPNETの進化型である。

>Top Global Computer:

  • We now have all the mechanisms in place to build the Global Computer. When one views this system from a software perspective, an interesting thing takes place. The Global Computer viewed from almost every level of software is nothing more than a multiprocessor, virtual memory (possibly object-oriented) computer system. Protocols are no longer an issue, except for the very simplest and those of the presentation layer. There are other issues that must be dealt with as well.
    • For example, we must define appropriate memory cards that will, among other things, cache items that are moving around the national bus and make requests through the network for needed objects. Also, If, in fact, we are to build a distributed machine of heterogeneous elements, then we must pay attention to the issues of data mapping, etc. This, however, is an issue of heterogeneous systems, not of a particular distribution design.
  • Have we gotten away free? We have made it sound all too simple. Essentially, we have argued that ideas developed in the past twenty years for managing multiprocessor machines and very large data bases are completely mappable onto the Global Computer. If one were a harsh critic of these ideas, one may ask, "Yes, but have you solved the latency problem? That is, every time you make a request outside your local environment it will take a long time for that object to get to your machine."
    • The answer is, of course, not simple. On on hand, the problems are no different than those one encounters in the design of a paged environment. Unless data-structures are properly structured, a paged environment can collapse into a mass of long delays. The normal solution to this problem is to utilize an anticipation mechanism which will pre-page objects which must be used often and/or fix them in real local memory.


  • 我々は、現在すでにグローバル・コンピュータを製作するためのあらゆるメカニズムを持っている。ソフト的には、それはマルチ・プロセッサのバーチャル・メモリ(多分オブジェクト指向型)コンピュータ・システムそのものである。そこではプロトコルはもはやたいした問題ではなくなり、非常に単純プレゼンテーション層が残ることになる。同時に他の要素を考慮しなければならなくなる。
    • 例えば、我々はメモリ・カードの適切な定義、特にナショナル・バスを動き回るキャッシュアイテムや、必要なオブジェクトに対するネットワークを通じたリクエストなのである。また、異質な諸要素からなる分散マシーンを作ることになり、データ・マッピングの問題に留意しなければならなくなる。これは特定の分散環境のデザインではなく、ヘテロなシステムの課題である。
  • 我々はフリーになることを忘れてしまったのであろうか。フリーは簡潔さの中にある。それ以外に残るのは遅延の問題だ。過去20年間の間、我々はマルチプロセッサマシンや非常の大きなデータベースをグローバルコンピュータに完全にマッピングすべく発展してきたアイデアについて議論してきた。しかし「では遅延問題はどう解決してきたのか。即ち、ローカル環境外にリクエストを出す毎に、それをマシンに取り込むのに長い時間がかかる。」という厳しい批判がある。
    • もちろんそれに答えるのは簡単ではない。だがこれもページ環境のコンピュータを設計する際の課題となんら変わるところはない。データ構造が正しくなければ、ページ環境は多くの遅延を起こして崩壊する。この課題の解決には、予想メカニズムを利用して頻度多く使用されるオブジェクトをプレーページしておくか、リアルなローカルメモリに固定させておくことである。
  • >Top
  • Some of the twenty years of research has been towards gaining a deeper understanding of what these anticipation strategies should be within a local environment. A thesis just completed by Joseph Touch at the University of Pennsylvania addressed these issues as they extend to the Global Computer. He suggests in the thesis that the limiting performance property of a gigabit network will be determined by its ability to anticipate what the needs are for data and to move the proper data elements in advance of requests. Exploration of how or if the switching system can help in this anticipation mechanism is under study at this time.
  • A final comment
    While it may appears to the reader that we have left out much prior work in shared memory systems, let us assure you that we have factored into our efforts the work of those who have preceded us. To quote Richard Hamming,
    and Galois: "We have stood on the shoulders of those who preceded us."
  • 20年に亘るの研究の結果、ローカル環境内でこれらの予測戦略をより深く得ることができた。Pennsylvania大で、グローバルコンピュータに敷衍した課題で、Jeseph Touchが完成させた論文がある。枯れ葉、ギガビットネットワークの実行の制限要因となるのは、必要なデータを予測したり、リクエストに先行した適切なデータ動かしたりする能力によって決まる。現在でも、この予測メカニズムを支援するスイッチングシステムを探求している。
  • 最終コメント:
    読者には、我々が共有のメモリシステムにおいて多くの先行作業を省いてきたように見えるかもしれないが、我々に先んじて行われた仕事の努力を考慮に入れることを提起したい。Richard HammingとGaloisを引用するならば、「我々は、我々に先行する人たちの肩に乗っているのだ。」
  • If One gigabit which is already in our hand is the unavoidable limit, should be totally reconsider the computer-communication architechture from the very beginning? Is it another version of Y2K issue?
  • 1ギガビットなどすでに我々が手にしているスピードに避けられない限界があるとなると、コンピュータ・ネットワークのアーキテクチャの全面改訂が必要になるということであろうか。それはもう一つのY2K問題になり得るということだろうか。

| Top | Home | Article | Bookshelf | Keyword | Author | Oxymoron |