Allgemeines 21.949 Themen, 147.863 Beiträge

Experten erwarten „Computer mit heute noch unvorstellbarer Leistungsfähigkeit“ vor 2030

xafford / 19 Antworten / Flachansicht Nickles
(Foto: Pixabay)

(Originalmeldung) Venlo/Niederlande, 3. Februar 2021 – Noch vor dem Ende dieses Jahrzehnts werden „Computer mit heute noch unvorstellbarer Leistungsfähigkeit“ auf den Markt kommen, prognostizieren Experten im neuen Report „IT-Trends der 2020er Jahre“.

Die von der niederländischen Firma Beech IT in Auftrag gegebene Zukunftsanalyse basiert auf einer Umfrage unter 100 Fachleuten. 82 Prozent sind dem­nach fest vom Erscheinen der neuen Supercomputer noch vor 2030 überzeugt. Die Grundlage hierfür werden Mikrochips mit Strukturen kleiner als ein Nanometer sein, heißt es in dem Report. Zum Vergleich: Die derzeit leistungsfähigste Chipgeneration arbeitet mit 5-Nanometer-Strukturen. „In dieser Dekade gelingt der Durchbruch bei atomaren Chipstrukturen“, fasst Studienleiter Edward Lenssen, CEO von Beech IT, wesentliche Ergebnisse des Zukunftsreports zusammen.

Mehr als 80 Prozent der Experten erwarten bis 2030 ein „Instant Internet“, also die sofortige Verfügbarkeit „auf Knopfdruck“. Die technische Basis für Übertragungsgeschwindigkeiten jenseits der 10 Gigabit pro Sekunde soll „5G Plus“ bilden. „Worte wie ‚Download‘ und ‚Ladezeiten‘ wird man künftig nicht mehr kennen, weil alles sofort da ist“, sagt Edward Lenssen voraus. Zum Vergleich: Die derzeitige 5G-Mobilfunkgeneration bringt es auf bis zu 3 Gigabit pro Sekunde Übertragungsrate.

Dabei wird dem Expertenbericht zufolge künftig der Großteil der Internetanschlüsse gar nicht auf Computer, Tablets oder Smartphones entfallen, sondern auf Alltagsgegenstände wie Haushaltsgeräte oder Kleidungsstücke und Maschinen. Das „Internet der Dinge“ soll 2030 mehr als 80 Pro­zent des Datenverkehrs ausmachen, heißt es im Beech-Report. Im gleichen Zeitraum geht mehr als die Hälfte der Fachleute von exponentiell steigenden Datenmengen aus.

Auslöser der Datenberge sollen Sensoren sein, die laut Report „überall um uns herum alles messen, hören, sehen, riechen, schmecken und fühlen“. „Wir werden in dieser Dekade den Siegeszug der Sensoren erleben“, interpretiert Studienleiter Edward Lenssen eine Erkenntnis aus der Expertenbefragung, und fügt hinzu: „Die Herausforderung besteht darin, diese gewaltigen Fortschritte bei der Hardware und die schier unglaublichen Datenmengen mittels passender Software zu beherrschen.“

Laut Umfrage gehen 98 Prozent (!) der Experten davon aus, dass Software in den 2020ern weiter an Bedeutung gewinnen wird.  85 Prozent erwarten, dass „Big Data“, also die intelligente Auswertung der Datenberge, künftig entscheidend zum Erfolg von Unternehmen beitragen wird. Über drei Viertel (77 Prozent) sehen die verstärkte Nutzung von Künstlicher Intelligenz zur Daten­analyse voraus. 55 Prozent erwarten bis 2030 „komplexere Software mit mehr Intelligenz“. 76 Prozent stufen eine „maximale Flexibilität bei der Softwareentwicklung“ als erfolgskritisch ein.

Beech-Chef Edward Lenssen resümiert: „Die Hardware wird in dieser Dekade derart gewaltige Fortschritte machen, dass es der Softwareentwicklung schwerfallen wird, hinterherzukommen. Software wird sich in den 2020ern als der Flaschenhals der Digitalisierung herausstellen. Unter­nehmen sind also gut beraten, sich heute schon die Entwicklerkapazitäten zu sichern, die sie für ihre Wettbewerbsfähigkeit bis 2030 und darüber hinaus benötigen.“

Pauschalurteile sind immer falsch!!!
bei Antwort benachrichtigen
Borlander Sovebämse „Ist es nicht so, dass 50 CPU-Auslastung eigentlich 100 bedeutet? Irgendwo hab ich mal sowas gelesen. Und mein Rechner wird ...“
Optionen
Ist es nicht so, dass 50% CPU-Auslastung eigentlich 100% bedeutet?

Könnte man u.U. so interpretieren, wenn man sich an HT oder entsprechende Technik von AMD anschaut. Aber da macht man sich auch nur zu Nutze, dass die CPUs bzw. einzelne Teile trotz Pipelining (während der Befehlsverarbeitung werden wir gleichzeitig schon die Verarbeitung der nächsten wahrscheinlichen Befehle vorbereitet) noch viel Zeit mit warten verbringen. Außerdem nutzt man heute auch Präementives Multitasking um zu verhindern, dass einzelne leistungshungrige Prozesse das Gesamtsystem unbedienbar machen.

Das Problem ist doch, dass ich auf dem ersten System schon mit teilweise deutlich unter 50% (habe ich vielleicht nicht so exakt beschrieben) Last irgendwelche Einschränkungen erlebe, während ich auf dem anderen System auch mit 100% Last keine Einschränkungen habe. Der Unterschied liegt aber hauptsächlich in der Softwareumgebung.

bei Antwort benachrichtigen