La puissance d'un ordinateur est fonction du nombre d'oscillations que l’horloge de son processeur est capable d'éxécuter en une seconde, et se compte en Hertz (Hz).

 

Selon la seconde loi de Moore (1975), elle double tous les deux ans. À la fin du XXe siècle, les micro-ordinateurs atteignaient 1 GHz (1 milliard de Hz). En 2007, des portables offraient plus de 2 Ghz, et de gros ordinateurs atteignaient 500 GHz. Depuis 2004, ce rythme de croissance s'est ralenti ; en 2012 des puissances de 3,2 à 3,6 GHz sont courantes sur micro-ordinateurs... 

La puissance proprement dite est la vitesse de traitement des nombres en virgule flottante, exprimée en opérations par seconde, les flops (Floating Point Operations Per Second). Elle peut atteindre, en 2012, sur micro-ordinateur, de 100 à 2460 gigaflops et l’ordinateur Sequoia d’IBM a une puissance de 16,32 petaflops (1015 flops).

Mais de nouvelles solutions se préparent,  en particulier des processeurs « quantiques »  sont à l’étude, dont la technologie s’appuiera sur la physique de l’infiniment petit.