@Moore
Nun, dazu gehören mehrere Faktoren. Zum einen die physikalischen Grenzen der Miniaturisierung (Störungen auf Quantenebene bis hin zu Heisenberg), zum anderen die Notwendigkeit. Gerade letztere scheint sich aber mit der aktuellen Forschung im Bereich allgegenwärtiger Computer abzuzeichnen. Wenn man von überall und jederzeit Zugriff auf ein Rechennetz "ohne Grenzen" hat, besteht einfach kein Bedarf an kleineren Geräten mit großer Rechenleistung. Man kann ja dann große Rechnerverbunde für seine Zwecke einsetzen und muss sich lediglich um den Datentransfer bemühen.
Gleiches gilt für die Forschung im Nanotechnologiebereich. Wenn die "Kleine" erst einmal ausreichend für den Anwendungsbereich ist, besteht auch hier kein Bedarf mehr an Verkleinerungen. Man wird sich dann eher auf eine Optimierung der Herstellung und Fähigkeiten konzentrieren, da die Rechenleistungen auch wieder über externe Rechnernetze geleistet werden können.
@Menschliches Gehirn
Die Leistung eins menschlichen Gehirns besteht aber nicht (ausschließlich)in der Operationsgeschwindigkeit, sondern in der Kognition. Ist halt die Frage, ob der spätestens 2020 erwartete Durchbruch der menschlichen "Gehirntaktrate" auch intelligentere Rechner zur Folge haben wird. Denn die hohe Leistung des Gehirns basiert hauptsächlich auf dem, was beim Rechner die Software ist: intelligente Verarbeitungsalgorithmen.
Mir sind für das menschliche Gehirn zwei Abschätzungen bekannt, die beide auf der massiven Parallelität der neuronalen Operationen beruhen: 10 Giga-Hz (Küpfmüller) und 20 Peta-Hz (Kurzweil). Wenn die Angabe von 60 Billionen Operationen für Data stimmt, dann liegt er entweder gerade mal um den Faktor 6 über der Leistung des menschlichen Gehirns oder ist um eine viertel Millionen langsamer.
€: Und selbst mit den Billionen veralbert, gn. 60 Billionen Op/sec sind ja 60 Tera-Hz. Also entweder Faktor 6000 oder 0.0004.
Gruß
Dwight