PURCHASE
ORDER |
Remarks |
>Top 1. The advent of gigabit network:
- The advent of gigabit network technology has inspired a rethinking
of the structure of network computers, operating systems, and protocol
structures. We will examine the way in which various components
of a computer system are affected by their use in networks that
give host-to-host potential throughput more than one Gbps. A short
summary of this examination follows: EVERYTHING IS BROKEN
|
1. ギガビット・ネットワークの登場:
- ギガビットネットワーク技術の登場は、OSやプロトコルなどネットワーク・コンピュータの構造を再考を迫っている。相互に1Gbps以上の速度で通信できるようになった場合のコンピュータ・システムの各要素のあり方を一言でいうと、既存のコンピュータ・アーキテクチャは、全部成り立たなくなってしまうのである。
|
>Top Memory Bus:
- Examining the bottom of the computer architecture, that is the processor
to memory bus system.
- This system, which in many modern computers also carries the
majority of the traffic that comes into memory via the I/O
system, provides, in its current form, a bandwidth in the
range of one Gbps. Thus, data coming in from the outside at
one Gbps will substantially conflict with the needs of the processor-memory
pipeline. A number of solutions to this problem have been suggested.
- The first and most common solution are to define another
bus to serve as the memory- processor communication buses
and use the main computer bus only for access to a dual-ported
or multi-ported memory for the I/O system. This creates a number
of difficult architectural problems and can notably increase
the cost of the computer system.
- Another approach is to treat the network as part of the
path to a global multi-processor environment. In this view,
the processor memory path is intrinsically the same as the processor
network path and the problem then reduces to an issue of how
to avoid multi-memory bank conflicts on the bus. However, this
is an open and confused area. In the short term, it is probably
the limiting obstruction to the widespread use of workstations
on high speed networks.
|
メモリ・バス:
- まずアーキテクチャの最下層であるプロセッサからメモリ・バスにいたるシステムを再考する。
- ほとんどの最近のコンピュータでは、トラフィックはI/Oシステム経由でメモリに入力され、その帯域は1Gbps程度である。従って、外部から1Gbpsではいって来るデータは、プロセッサ=メモリ間のパイプラインのニーズと相当程度衝突する。これに対するソリューションとしては以下があり得る。
- 第一の、最も一般的な解決は、もう一つのバスをメモリ=プロセッサ間コミュニケーション用バスと決めて、メーンのコンピュータ・バスは、I/Oシステム用の2ポート以上のメモリへのアクセス専用とする。だがこれには面倒なアーキテクチャー上の問題が多数発生し、コンピュータのコスト高を招く。
- もう一つの方法は、ネットワークをグローバルなマルチプロセッサ環境に至る経路の一つとして扱う。その場合には、プロセッサ=メモリ間の経路は、本質的にプロセッサ=ネットワークの経路と同一のものとなり、バス上での多メモリ・バンクの衝突をいかに回避するかという問題が残る。だがこの領域はオープンで混乱しており、短期的には高速ネットワークの上でWSを広汎に利用することを制限するようになるだろう。
|
>Top Interface Card:
- Moving up the hierarchy to the computer-network interface, one encounters
more problems. In order to get information into the computer from
an external device, it is necessary to define some form of interface
card which maps from
the internal structure of the computer system to the format of the
network.
- Currently, cards are being developed which translate buffers
of data into ATM format and then interconnect through SONET
chips to the gigabit network.
- Experience at the University of Pennsylvania has shown that,
in many workstations, the I/O controllers are too slow to service
the bandwidth requirements of such interface cards. This compounds
the bus congestion problem and again creates a major bottleneck.
- In the future, controller chips will help alleviate this problem.
For example, the University of Pennsylvania
ATM interface board is capable of operating at 650 Mbps but
still not one gigabit.
|
インターフェースカード:
- 次に上層のコンピュータ・ネットワークのインターフェースでは、より多くの問題に直面する。外部デバイスからコンピュータに情報を取り込むためには、コンピュータ・システムの内部構造をネットワークのフォーマットにマッピングするような何らかの形のインターフェース・カードを定義することが必要になる。
- 現在開発されているカードは、データのバッファーをATMフォーマットにトランスレートし、それからSONETのチップを通じてギガビット・ネットワークに相互接続するというものである。。
- ペンシルバニア大の実験では、多くのWSにおいてI/Oコントローラはこれらのインターフェースカードの帯域をサービスするには遅すぎることを示した。
- 今後は、コントローラ・チップの速度が増せばこの問題は緩和されよう。 ペンシルバニア大学の事例では、ATMインターフェイスボードは650Mbpsであり1Gbpsに満たない。
|
- Even if information could be brought into a computer's physical
memory fast enough, our problems have just begun. Modern operating
systems, such as UNIX, have grown in size and complexity
to the point that they create a major bottleneck for the utilization
of high speed networks. Even without considering protocol processing,
the manipulation of the operating system in moving data (as it comes
in from an external network until it can be delivered to a requesting
processor) involve a substantial number of memory-to-memory moves,
each consuming considerable computer time.
- This problem does not have an obvious solution. Rather, it
suggests an approach that could be described as a "kinder,
gentler operating system, which goes back to the original simplicity
of the early UNIX systems as created at Bell Laboratories.
|
OS:
- 情報がコンピュータの物理メモリに高速で入力できたとしても、問題は解決しない。UNIXのような現代のOSは規模と複雑性の両面で大きくなりすぎて、高速ネットワークの利用する際のボトルネックになってしまった。プロトコル・プロセシングを考慮しないとしても、(外部ネットワークからのデータが指定のプレセッサに伝送されるようになるまでの)データの移動に関するOS処理によって、それぞれ各メモリ間の移動を数多く繰り返しコンピュータタイムを消費する。
- この問題での明白な解決はない。おそらくベル研が開発した初期のUNIXが元来持っていた単純さに帰着するより親切で優しいOSへの回帰が必要となろう。
|
- Moving up one more level in the pipeline of bottlenecks, we run
into the protocol system. Modern protocol systems such as TCP/IP have evolved in response to slow-speed communication systems operating
in the low one megabit range. These systems have been characterized
by high error rates and modest bandwidth latency metrics.
In modern networks, one may have hundreds of thousands of bits flowing
across the United States in response to a request for information
transfer. Protocol systems employ windowing mechanisms to deal with
the management of such latency. In the case of gigabit networks,
there will be millions of bits flowing in the pipe.
- If we take a similar approach to protocol design. This amount
of data would put an inordinate strain on any rational windowing
system and, more seriously, make intelligent
anticipation strategies extremely difficult.
That is, it would be difficult for the system to know what to
ask for so that the right information gets to the requesting
post at the right time.
- Even if we could solve, in a simple way, the above problems,
the complexity of the resulting protocol systems would, when operating
at the speeds anticipated in the future, require most, if not
all, of the computing cycles available in modern workstations.
In this case, only the fastest supercomputers would have the processing
power to service such protocol systems. If one presumes that the
purpose of computing is to compute and not to run protocols,
then something is fundamentally wrong.
|
TCP/IP:
- ボトルネックのパイプラインのレベルのもう一段上層では、TCP/IPのような今日のプロトコル・システムは、1Mbps以下で動作する低速のコミュニケーション・システムを前提として進化してきた。これらのシステムは、エラー・レートが高い反面、帯域の遅延はあまり大きくないという特徴がある。だが現代のネットワークでは、情報移転の要求に応えて米国中を何十万ものビットが駆け巡らなくてはならない。プロトコル・システムは、こうした遅延管理のために、windowing
mechanismsを利用している。だが、ギガビット・ネットワークの場合には、パイプの中を何百万ビットもの情報が流れるので、そのようなメカニズムではもはや対応しきれなくなる。
- より深刻なのは、インテリジェントな予測戦略が極めて難しくなることだ。
つまり、正しい情報が正しい時刻に要求された場所に到達できるようにするには何を要求すべきかということが知りにくくなるのである。
- 仮にそれが単純な形で解けたとしても、それがもたらすプロトコル・システムの複雑性の問題に対処するためには、将来予想されるような高速動作時においては、今日のWSがもつコンピューティング能力のほとんどを使い切ってしまうだろう。そうであれば、このようなプロトコル・システムの要求に応えるには、最高速のスーパーコンピュータの処理能力が必要になろう。コンピュータの目的はコンピュティングすることであって、プロトコルを走らすことでないとすれば、何かが根本的に間違っていることになる。
|
>Top Switching System:
- Moving up one final step, we turn to the switching systems that will, in the future, support very high speed networking. In
spite of everything that has been said about the convergence of
communications and computing, we still build networks, be they local
or national, in a way that isolates them from the computers that
are their customers. In a sense, the computers are like telephone subscribers dialing connections through the network, with the network
refusing and unable to help in any of the transactions other that
merely establishing connections. This isolation creates additional
burdens on the computer systems. A richer interaction between computer
and network-- indeed, a blurring of the distinction between computer
and network--is necessary.
|
スイッチング・システム:
- 最後の段階の問題になるのが、今後は極めて高速なネットワーキングをサポートするスイッチング・システムの問題だ。通信とコンピュータの融合についていろいろ言われたにもかかわらず、ローカルや全国的なネットワークを構築する際には、ネットワークをその顧客であるコンピュータから分離させるというやり方をしている。コンピュータは、ある意味ではネットワークを通じてダイヤルして接続する電話加入者に似ている。ネットワークは、単に接続を確立する以上のサポートはしてくれないし、出来る仕組みにもなっていない。このような孤立は、コンピュータ・システムにとって余分の負荷を生み出す。従って、コンピュータとネットワークの間のより豊かな相互作用、まさしくコンピュータとネットワーク間の区別の曖昧化が必要になる。
|
>Top 2. Back to the future:
PDP-11-like system:
- In 1970, an experiment, called the DCS project attempted
to create, by interconnecting a number of minicomputers, a system
that would offer seamless user access to the computer system resources,
fault tolerance, incremental expansion, and, most importantly, would
look like a single computer to the using software. The resulting
system, which went operational in 1973, utilizing a PDP-11-like
system, contained a number of innovative ideas in its structure.
- These included one of the first micro-kernels, a fully
distributed fault tolerant file system, an inter-process communication
structure based on messaging, and a process-migration structure
supported, as was the inter-process communication structure, by
the communication subsystem. The communication subsystem was the
first operational token-ring, which, in almost all its details,
preceded and formed the basis for the 805.6 token-ring. It included
a mechanism within the communication system that knew about process
names, allowing messages to processes to be sent around the ring.
|
2. バック・ツー・ザ・フューチャー:
PDP-11ライクなシステム:
- 実は1970年代の前半に、DCSプロジェクトという分散システムの実験が行われた。これは多数のミニコンを相互接続し、コンピュータ資源にシームレスにアクセスでき、フォールト・トレラントで、拡張性があり、さらに重要なことには、ソフトウェアを使う上で単一のコンピュータのように見えていたのである。そのシステムは、1973
年にはPDP-11ライクなシステムとして稼働し、様々な革新的なアイデアが盛り込まれていた。
- これらの中には、最初のマイクロ・カーネル、分散フォールト・トレラント・ファイルシステム、メッセージングに基づくインタープロセス・コミュニケーション構造、更には、コミュニケーション・サブシステムによるプロセス・マイグレーション構造をサポートしたインタープロセス・コミュニケーション構造であった。このコミュニケーション・サブシステムは最初のトークンリングであり、それは後に805.6として規定されるトークンリングの基礎となるメカニズム、例えばプロセス・ネームを認識して、メッセージをリング上に送達させる機能などであった。
|
- >Top
- In addition, the system could, by examining interfaces external
to the computing system, determine if the processes addressed
by these messages were resident in the attached processor. If
a process was resident, a copy of the message was made and an
appropriate indicator was put on the message, which continued
around the ring. Resource management, process migration, and
process binding all took advantage of the name tables that were
in the ring.
- Many of the ideas we will discuss later in this paper were
around in the early 70's and are still reasonable ideas, as
they have been for the past twenty years.
- The Global Computer One of the hopes for the DCS was
that by adding mechanisms to the communication system, enough
assistance would be provided to the computer software system
to allow it to operate in an efficient fashion. Thus, we expected
that by putting multiple processors on the ring, performance
that approached that of the sum of the processors would be achieved.
This turned out not to be quite true for a number of reasons,
the most important of which was that the processors were burdened
by the need to repeatedly copy information coming in from the
ring interfaces, through their I/O system, into the memory system.
- Thus, DCS suffered from essentially the same problem we see
in gigabit networks. Five years ago, when reflecting
on the experience gained from DCS and from a companion system
developed in the early 80's at the University of Delaware called
SODS (Series One Distributed System), it was realized that if
one continued to view local networks, such as the ring, as communications
system that were serviced through the I/O mechanisms of computers,
it would be difficult, if not impossible, to achieve greatly
improved performance.
|
- さらに、このシステムは、コンピュータシステムの外部とのインターフェースをチェックして、メッセージにアドレスされたプロセスがプロセッサ上に存在しているかを調べる。もし存在していればメッセージのコピーが作られ、メッセージに適当な印をつけてリングに戻す。リソース管理、プロセス・マイグレーション、プロセス・バインディングはすべてリング上にあるネーム・テーブルを利用する。
- これら多くのアイデアは、すべに1970年代初頭に現れており、それらは20年経った今でも現在でも有効なアイデアである。
- DCSの目標であったGlobal Computer Oneは、コミュニケーションシステムに機能を付加して、効率的に処理できるようなコンピュータソフトウェアのシステムをサポートしていた。こうしてリング上に多くのプロセッサを配置し、処理能力をプロセッサの合計に近づけようとした。実際には種々の理由でそうはならなかった。それは、特にプロセッサがリング上からI/Oを通じてメモリに入力される情報のコピーの繰り返しに追われていたからである。
- こうしてDCSでは、ギガビットネットワークと本質的には同じ問題に遭遇した。5年前にDCSから得られた経験およびデラウェア大で80年代初頭に開発されたSODS
(Series One Distributed System)システムによって、リングのようなローカルネットワークをコミュニケーションシステムとして検証すると、コンピュータのI/Oメカニズムがパフォーマンスの抜本的に向上させる上で、不可能でないにせよ困難であることを示したのである。
|
>Top 3. Memory System:
MEMNET:
- In response, a project called MEMNET was started. This project took the point of view that the memory
system is a more natural vehicle for communication between components
of distributed system than is a message-based system. In the MEMNET
system, we used special memory cards, one per processor. These cards
were coupled together through a 230 Mbps insertion ring. When a
processor made a request to memory, the MEMNET card behaved like
any other memory card in the processor.
- The MEMNET card contained a large memory cache which examined
when it saw an address on the bus to see whether the item was
in the cache. If it was not, the processor was held and a request
was made around the ring to all MEMNET cards to see where the
requested memory object was. This object would be brought, through
the ring, into the cache of the MEMNET card and then the processor
request would be honored.
- Since the ring was a broadcast ring, it essentially operated
as a snooping cache, preserving ownership and providing proper
data consistency. Experiences with MEMNET indicated that this
approach is valid and that its performance is scalable up to
a significantly larger number of processors.
|
3. メモリ・システム:
MEMNET:
- そこでMEMNETというプロジェクトが開始された。これは、分散システムの要素間のコミュニケーションにとっては、メモリ・システムの方が、メッセージベース・システムより自然な仕組みであるという見地に立っていた。そこでMEMNETシステムでは、1プロセッサあたり特定のMEMNETカードを1枚使用した。これの各カードには230
Mbpsでのリング接続機能を備えていた。プロセッサがメモリへ要求を出すと、MEMNETカードは、プロセッサ上の他のメモリカードのように振る舞った。
- MEMNETカードは大容量のメモリ・キャッシュをもち、バス上のアドレスを見てそれがキャッシュの中にあるかどうかを調べた。なければリング上のすべてのMEMNETカードに問い合わせを出して、要求されたメモリ・オブジェクトがどこにあるかを探してキャッシュの中にとりこみ、プロセッサからの要求に応えた。
- リングはブロード・キャストリングなので、スヌーピング・キャッシュとして機能し、データの同一性を保持した。MEMNETの実験の結果は、このアプローチには有効で、その能力はプロセッサの数によってスケーラブルであることを示した。
|
>Top The Next Step
- When one examines the gigabit world, one
can make a number of interesting observations. A gigabit network
has bandwidth equivalent to a local processor bus. Thus, one is
tempted to talk about a national MEMNET. An immediate reaction to
this is, "Yes, but how can we have a processor waiting for
a memory request that must travel across the United States to be
satisfied?" This situation is equivalent to saying that certain
requests to memory might have long latencies before they are satisfied.
- This sounds familiar. It is the same behavior that a modern
virtual memory paged computing system sees in normal operation.
When a processor makes a request to memory for something from
a page in such a system, often it gets it immediately, but occasionally
it gets a page fault and the process is held waiting while the
software system finds the page, brings it into memory, and then
restarts the requested memory access. The page retrieval time
is remarkably close to the time required for a transcontinental
request for a missing object. Our modern computer system have
been fine-tuned to operate efficiently in such a paged environment,
and, indeed, there are a number of multiprocessor virtual memory
computer systems on the market.
|
次ぎのステップ
- ギガビットの世界を検証する次のステップとしては、多くの興味深い観察結果が得られる。ギガビットネットワークの帯域は、ローカルなプロセッサ・バスと同等の帯域をもっている。となると全国的なMEMNETを考えてみたくなる。だがその場合には、米国中にわたるようなメモリ要求が満たされるのを待っているようなプロセッサなどありうるのかという疑問がでてくる。この状況では遅延が大きくなりすぎないかという疑問である。
- これは、今日のバーチャル・メモリ・ページをもつコンピューティング・システムが通常の作業時に直面しているのと同じ問題である。プロセッサがこのようなシステムでページから何かをメモリに要求だしたとすると、それはすぐ得られるかも知れないが、時々は該当ページがなく、ソフトウェアシステムがページを検索してメモリに持ってくる間、プロセスは待ちとなる。このページを検索する時間は、見つからないオブジェクトを大陸の反対側から探してくるのにかかる時間とほとんど変わりがない。いまでのコンピュータシステムでは、このようなページ環境で効率的に動くよう精緻な仕組みを備えてきた。実際市場には、マルチ・プロセッサのバーチャル・メモリ・コンピュータ・システムが登場している。
|
- >Top Another observation one might make is that it is easy to find
a missing page in a local environment and considerably more difficult
to find that page (or object) when it is scattered among the geographically
dispersed components of the Global Computer. Indeed, this is a valid
observation. The response to this is to call for the communication
system to help us. The communication system must take part in
both finding the location of requested objects and, what is more
important, in keeping track of the migration of these objects as
they move around the Global Computer.
- These issues are dealt with in the CAPNET proposal
of Ivan Tam, in which a set of tables was to be added to each
of the switches in a modern gigabit network. These tables are
similar, but not identical, to the page tables in our modern
computers. When a request for an item comes into the switch,
a look-up is done in the page table to determine how to route
the request based on whether the switch has seen the requested
page go through it. This is similar in principal to the process-tables
of the DCS system.
|
- もう一つの疑問は、ローカルな環境の中でページを見つけ出すのに比べると、地理的に分散したグローバル・コンピュータの間に散らばっているページを見つけ出すのははるかに困難であろうということである。実際そのとおりである。だからそれを支援するコミュニケーション・システムが必要になる。それは要求されたオブジェクトを探し出すだけでなく、それらのオブジェクトがグローバル・コンピュータの間を動き回る際の移動経路を追跡しておく必要がある。
- この問題に対処しているのがIvan Tamの提唱しているCAPNETで、そこでは最新のギガビット・ネットワークの中のそれぞれのスイッチに一連の表が追加されている。それらの表は最新のコンピュータが持っているページ表と同一ではないがよく似ている。ある要求がスイッチに発生すると、ページ表を検索して、そのスイッチがすでに要求されたページを見たかどうかによって、その要求をルーティングするように決める。
これはDCSシステムのプロセス表と本質的に同じである。
|
- >Top Somewhat remarkably, it is also similar to the mechanisms that
must be put into switching fabrics to support the future mobile
personal communications systems.
- A person using a personal communicator would be free to migrate
anyplace within the United States and could be called by an
originating person who knows only his "name." The
network would search to see where that communicator was last
seen and would leave information within the switching fabrics
so that a global search would not have to be done each time
an attempt was made to connect to that person. As the person
travels, the tables are kept up to date to minimize wasted searching.
If one substitutes the word memory-object for personal communications
system, one has essentially the same structure, except for some
"minor" details.
- This observation makes it feasible to discuss the actual deployment
of hardware at the switching nodes that will support a Global
Computer as well as personal communicators. Considerations of
protection and data consistency suggest that, in practice, the
items that are communicated within the Global Computer are not
pages, but rather are objects that can provide ownership and
access-protection mechanisms. This evolution of CAPNET is described
in a paper by H. Kim called GOBNET, A Gigabit Object-oriented
Network.
|
- さらに驚くべきことには、おそらく未来のモバイル・パーソナル・コミュニケーション・システムのスイッチング・ネットワークにも、同様なメカニズムが組み込まれるようになるだろう。
- 携帯機器のユーザーが、米国内のどこにいようが、どこに移動しようが、その名前がわかりさえすれば探し出すことが可能になるだろう。ネットワークは、最後に通信した人の場所を検索しその情報をスイッチング・ネットワークに伝えることでグローバルな検索は接続毎に行う必要がなくなる。その人が旅行すると、その情報テーブルは余計な検索をいないようにアップデートされる。もしパーソナル・コミュニケーションシステムの代わりにワードメモリ・オブジェクトを使うと、詳細は別として構造的には同じことができる。
- このことはグローバルコンピュータのみならず、パーソナル・コミュニケータもサポートするようなスイッチング・ノードにハードウェアを配置する議論が現実味を帯びてくる。データの同一性を保持することを考慮するとグローバル・コンピュータ内の通信はページではなく所有とアクセス保護メカニズムを提供するオブジェクトとなろう。これはH.キムの言うギガビット・オブジェクト指向ネットワーク(GOBNET)でありCAPNETの進化型である。
|
>Top Global Computer:
- We now have all the mechanisms in place to build the Global Computer.
When one views this system from a software perspective, an interesting
thing takes place. The Global Computer viewed from almost every
level of software is nothing more than a multiprocessor, virtual
memory (possibly object-oriented) computer system. Protocols are
no longer an issue, except for the very simplest and those of the
presentation layer. There are other issues that must be dealt with
as well.
- For example, we must define appropriate memory cards that will, among other things, cache items that are moving around
the national bus and make requests through the network for needed
objects. Also, If, in fact, we are to build a distributed machine
of heterogeneous elements, then we must pay attention to the
issues of data mapping, etc. This, however, is an issue
of heterogeneous systems, not of a particular distribution design.
- Have we gotten away free? We have made it sound all too simple.
Essentially, we have argued that ideas developed in the past twenty
years for managing multiprocessor machines and very large data bases
are completely mappable onto the Global Computer. If one were a
harsh critic of these ideas, one may ask, "Yes, but have you
solved the latency problem? That is, every time you make
a request outside your local environment it will take a long time
for that object to get to your machine."
- The answer is, of course, not simple. On on hand, the problems
are no different than those one encounters in the design of
a paged environment. Unless data-structures are properly structured,
a paged environment can collapse into a mass of long delays.
The normal solution to this problem is to utilize an anticipation
mechanism which will pre-page objects which must be used often
and/or fix them in real local memory.
|
グローバル・コンピュータ:
- 我々は、現在すでにグローバル・コンピュータを製作するためのあらゆるメカニズムを持っている。ソフト的には、それはマルチ・プロセッサのバーチャル・メモリ(多分オブジェクト指向型)コンピュータ・システムそのものである。そこではプロトコルはもはやたいした問題ではなくなり、非常に単純プレゼンテーション層が残ることになる。同時に他の要素を考慮しなければならなくなる。
- 例えば、我々はメモリ・カードの適切な定義、特にナショナル・バスを動き回るキャッシュアイテムや、必要なオブジェクトに対するネットワークを通じたリクエストなのである。また、異質な諸要素からなる分散マシーンを作ることになり、データ・マッピングの問題に留意しなければならなくなる。これは特定の分散環境のデザインではなく、ヘテロなシステムの課題である。
- 我々はフリーになることを忘れてしまったのであろうか。フリーは簡潔さの中にある。それ以外に残るのは遅延の問題だ。過去20年間の間、我々はマルチプロセッサマシンや非常の大きなデータベースをグローバルコンピュータに完全にマッピングすべく発展してきたアイデアについて議論してきた。しかし「では遅延問題はどう解決してきたのか。即ち、ローカル環境外にリクエストを出す毎に、それをマシンに取り込むのに長い時間がかかる。」という厳しい批判がある。
- もちろんそれに答えるのは簡単ではない。だがこれもページ環境のコンピュータを設計する際の課題となんら変わるところはない。データ構造が正しくなければ、ページ環境は多くの遅延を起こして崩壊する。この課題の解決には、予想メカニズムを利用して頻度多く使用されるオブジェクトをプレーページしておくか、リアルなローカルメモリに固定させておくことである。
|
- >Top Some of the twenty years of research has been towards gaining
a deeper understanding of what these anticipation strategies should
be within a local environment. A thesis just completed by Joseph
Touch at the University of Pennsylvania addressed these issues as
they extend to the Global Computer. He suggests in the thesis that
the limiting performance property of a gigabit network will be determined
by its ability to anticipate what the needs are for data and to
move the proper data elements in advance of requests. Exploration
of how or if the switching system can help in this anticipation
mechanism is under study at this time.
- A final comment
While it may appears to the reader that we have left out much prior
work in shared memory systems, let us assure you that we have factored
into our efforts the work of those who have preceded us. To quote
Richard Hamming,
and Galois: "We have stood on the shoulders of those who
preceded us."
|
- 20年に亘るの研究の結果、ローカル環境内でこれらの予測戦略をより深く得ることができた。Pennsylvania大で、グローバルコンピュータに敷衍した課題で、Jeseph
Touchが完成させた論文がある。枯れ葉、ギガビットネットワークの実行の制限要因となるのは、必要なデータを予測したり、リクエストに先行した適切なデータ動かしたりする能力によって決まる。現在でも、この予測メカニズムを支援するスイッチングシステムを探求している。
- 最終コメント:
読者には、我々が共有のメモリシステムにおいて多くの先行作業を省いてきたように見えるかもしれないが、我々に先んじて行われた仕事の努力を考慮に入れることを提起したい。Richard
HammingとGaloisを引用するならば、「我々は、我々に先行する人たちの肩に乗っているのだ。」
|