Rechengeschwindigkeit mod. Systeme im Jahr 2375

D

dwight

Guest
Moin,

ich bin auf der Suche nach der Rechengeschwindigkeit moderner Systeme im Jahr 2375. Gibt es da irgendwo im Netz eine ordentliche Quelle zu?

Mein Szenario: Auswerten der Verhaltensmuster einer Raumschiffsbesatzung (ca. 600 Personen) über 4 Wochen und Vergleich mit dem Muster der vergangenen 24 Stunden.

Dank und Gruß
Dwight
 
Data hat eine Rechengeschwindigkeit von 60 Milliarden Vorgängen pro Sekunde und eine Speicherkapazität von 100 Quadrillionen Bytes.

Aber du willst eher die Rechengeschwindigkeit von Schiffscomputern wissen, oder?

Euer
hannibal
 
Ja, Schiffscomputer. Und eventuell einen Anhaltspunkt, ohne dass ich mir den Algorithmus und mögiche Implementierungen mit benötigten Rechenschritten selbst ausdenken muss :D

Gruß
Dwight
 
Tja, damit kann ich leider nicht dienen.
Ich kenn mich beim Thema Rechengeschwindigkeiten und co. nicht so aus.

Euer
hannibal
 
Jau, Danke. Englisch schreckt mich nun wirklich nicht (auf Wohnort schiel ;)).

Gruß
Dwight
 
hannibal schrieb:
Data hat eine Rechengeschwindigkeit von 60 Milliarden Vorgängen pro Sekunde und eine Speicherkapazität von 100 Quadrillionen Bytes.

Aber du willst eher die Rechengeschwindigkeit von Schiffscomputern wissen, oder?

Euer
hannibal


nur 60Ghz ? ahhh :D :D :D
 
Ja, wohl eher "60 trillion operations per second". Wobei man sich jetzt ein wenig streiten kann, nach welchem System die Trillion gelten. Amerikanisch wohl, dann dürften dass 60 Billionen Operationen pro Sekunde sein. 60 Terahertz, wenn ich mich nicht irre. Für eine Entwicklung von über 300 Jahren dennoch nicht sonderlich schnell.

Ich nehme mal an, dass die Schiffscomputer noch ein wenig darunter liegen, weil keine Positronik. Leider schweigt das Daystrom Institut darüber und erklärt lediglich in voller Breite die Speicherzugriffsraten. *seufz*

Dann muss ich mir doch einen Algorithmus ausdenken und nehme einfach einen Faktor 10000 gegenüber heutigen Rechnern an.

Gruß
Dwight
 
Der Recher der Voyager arbeit mit doppelter Lichtgeschwindigkeit. Wurde in der Folge gesagt, als der Computer der Voyager gestohlen wurde, glaube ich.
 
dwight schrieb:
Ich nehme mal an, dass die Schiffscomputer noch ein wenig darunter liegen, weil keine Positronik.
Dafür ist der Schiffscomputer sehr viel größer.

Ich habe mal in "Die Technik der USS Enterprise" und "DS9: Das technische Handbuch" geblättert, den beiden offiziellen Nachschlagewerken für die ST-Technik, und in keinem von beiden konnte man Angaben über die Rechengeschwindigkeit finden.

Die Autoren haben dies wohl absichtlich offen gelassen. Denn, wie man sieht haben sie bei Data einmal den Fehler gemacht eine offizielle Angabe zu machen, und schon wirken die Angaben heute überholt.

Hier gibt es übrigens einen guten Artikel, der sich zwar nicht um die Rechengeschwindigkeit, aber immerhin um die Speicherleitung und die Probleme diese auf die Zukunft zu übertragen, dreht.
 
Hm. Man könnte natürlich auch annehmen, dass bei Schiffscomputern eine massive Parallelisierbarkeit möglich ist. Wenn sich ein Problem also durch einen verteilten Algorithmus lösen lässt, wäre der Schiffsrechner schneller als ein einzelner Data. Das sollte bei meiner Aufgabe oben ja gegeben sein.
(Hätte ich eigentlich auch selber drauf kommen müssen :konfus: )

Gruß
Dwight
 
Wenns so weiter geht wie bisher (verdoppelung der Rechenleistung alle 18 Monate)... OMG, dann wirds im Jahr 23xx wirklich krank... (wer hat lust das mal auszurechnen, bin grad zu müde *gääähn*)
 
OK, da würde ich noch veruten, dass das dann die Geschwindigkeit für die normalen kleinen Rechner sind und das dieser Wert für eine normale Gebrauchscomputerfestplatte (im Jahr 23XX) steht. Immerhin haben die Schiffe ja einen riesigen Computerkern, also könnte man die Zahl (rein theoretisch) noch einmal mit 1000 mal nehmen...
 
Naja, Moore wird nicht auf ewig gelten. Irgendwann ist man bei einer minimalen Größe angelangt. Die Einführung von Quads statt Bits in Startrek führt aber sicher in die richtige Richtung, dass man mit einer Stelle eben mehr als nur zwei Zustände darstellen kann. Dadurch erreicht man ja eine weitere Verkleinerung (Das ginge ja auch heute schon, wenn man verschiedene Ladungszustände für eine Stelle nimmt, ist aber komplizierter handzuhaben).

Was ein wenig unpraktischer ist: Es gibt bereits heute Superrechner, die annähernd die Rechenleistung Datas bringen. Wenn auch ungefähr so groß wie ein Fußballfeld. Daher ist die Angabe Datas Rechenleistung "etwas" zu gering ausgefallen für die tatsächlich zu erwartenden Steigerungen bzw. Miniaturisierungen.

Aber mir ging es ja auch gar nicht um eine Abschätzung, wie schnell die Rechner sind, sondern ob es dazu Angaben im ST-Universums gibt. Das sind ja zwei paar Schuh', vor allem wenn man eine Story innerhalb des ST-Universum spielen lässt.

Gruß
Dwight
 
Warum sollte Moore nicht ewig gelten? 19 Hundert Anno Dutt, als Moore diese These aufgestellt hatte, sahen die Computer aus, wie kleine Einfamilienhäuser. Die Technik wird sich ändern, aber die These bleibt.

@ Nelame. Moore spricht nicht von Supercomputern, Clustern oder PC's, sondern allgemein von integrierten Schaltungen.

Im übrigen haben wir Data locker eingeholt:

Gesamtspeicherkapazität von 800 Mrd. Bit wären dann 100 GByte.
 
Eben und da Data eindeutig mehr leisten kann als ein menschliches Gehirn, dann muss die Rehen- und Verarbeitungsleistung von Data um ein Vielfacheshöher liegen.
Ich denke es kommt bei Star Trek nicht nur auf die Nominaltaktfrequenz an sondern mehr auf die Übertragungsrate und die Verarbeitungsprozedur. Ich vergleiche den Schiffscomputer mehr mit dem Gehirn, das viel mehr auf einmal verabeiten und abspeichern kann als der größte Rechner. Wenn man das mal in groß nimmt dann hat man die Rechenleistung.-> bioneurale Gelpacks!!!!
Wisst ihr wenn ich mir anschaue, dass bei Star Trek immer von Terabyte gesprochen wird und ich dann in meinen Rechner schaue muss ich schon Lächeln, angesichts der Entwicklungsgeschwindigkeit der Rechnersysteme heute und angesichts dessen, was uns laut Star Trek noch bevor steht, können wir uns in aller Ruhe noch zurücklehnen, denn das schaffen wir in absehbarer Zeit auch noch.
 
@Moore
Nun, dazu gehören mehrere Faktoren. Zum einen die physikalischen Grenzen der Miniaturisierung (Störungen auf Quantenebene bis hin zu Heisenberg), zum anderen die Notwendigkeit. Gerade letztere scheint sich aber mit der aktuellen Forschung im Bereich allgegenwärtiger Computer abzuzeichnen. Wenn man von überall und jederzeit Zugriff auf ein Rechennetz "ohne Grenzen" hat, besteht einfach kein Bedarf an kleineren Geräten mit großer Rechenleistung. Man kann ja dann große Rechnerverbunde für seine Zwecke einsetzen und muss sich lediglich um den Datentransfer bemühen.
Gleiches gilt für die Forschung im Nanotechnologiebereich. Wenn die "Kleine" erst einmal ausreichend für den Anwendungsbereich ist, besteht auch hier kein Bedarf mehr an Verkleinerungen. Man wird sich dann eher auf eine Optimierung der Herstellung und Fähigkeiten konzentrieren, da die Rechenleistungen auch wieder über externe Rechnernetze geleistet werden können.

@Menschliches Gehirn
Die Leistung eins menschlichen Gehirns besteht aber nicht (ausschließlich)in der Operationsgeschwindigkeit, sondern in der Kognition. Ist halt die Frage, ob der spätestens 2020 erwartete Durchbruch der menschlichen "Gehirntaktrate" auch intelligentere Rechner zur Folge haben wird. Denn die hohe Leistung des Gehirns basiert hauptsächlich auf dem, was beim Rechner die Software ist: intelligente Verarbeitungsalgorithmen.

Mir sind für das menschliche Gehirn zwei Abschätzungen bekannt, die beide auf der massiven Parallelität der neuronalen Operationen beruhen: 10 Giga-Hz (Küpfmüller) und 20 Peta-Hz (Kurzweil). Wenn die Angabe von 60 Billionen Operationen für Data stimmt, dann liegt er entweder gerade mal um den Faktor 6 über der Leistung des menschlichen Gehirns oder ist um eine viertel Millionen langsamer.

€: Und selbst mit den Billionen veralbert, gn. 60 Billionen Op/sec sind ja 60 Tera-Hz. Also entweder Faktor 6000 oder 0.0004.

Gruß
Dwight
 
Das meine ich nicht, aber wenn Logbücher hin und her geschoben werden, dann sprach man von Terabyte, Data sprach von Terabyte, die er so an einem Tag verarbeitete. Daher!

Also wirklich, Rechern,die nötig ist um die leistung zu erbringen, können nicht auf unserern heutigen Systemen basieren, selbst ein Unix Cluster mit 32 Prozessoren vermag das nicht, man wird das Rad neu erfinden müssen! Man denke allein an die Temperaturentwicklung, bzw die stabilität bei der Masse an Daten, die verarbeitet werden muss.
 
Zurück
Oben