@madko
Nous sommes donc bien dans l'optique d'une optimisation progressive des applis 64 bits et de leurs possibilités, et non dans l'attente d'un basculement immédiat, cette dernière étant en effet impossible compte tenu de l'immensité des applis à ré-écrire.
Tout ce qui touche au traitement de calcul pur trouve donc son intérêt entre le proco avec son jeu d'instructions 64 bits d'un côté, et une appli pouvant les traiter de l'autre, logique.
Certains calculs pouvant aussi être pris en charge par la carte graphique, je pense à CUDA pour nVidia.
Le gain peut être carrément doublé dans le calcul pur, mais pour l'encodage, ce gain est réduit d'après mes lectures : il faut compter environ 10 à 15% de gain, ce qui n'empêche pas certaines apllis de gagner davantage.
Ce qui fait que tout le monde a raison et tort : oui on peut rester en 32, pour ne pas s'embêter avec les les dépendances en 32, et le temps quelques fois gagné est négligeable dans une utilisation "standard", et oui, utiliser le 64 peut présenter un intérêt dans des applis spécifiques exigeant du calcul intensif mais ne présente pas d'intérêt ailleurs.
Ensuite, il y a le cadre de l'optimisation générale, de l'adressage, de l'écriture disque, des nouveaux files systems dont tu parles, qui petit à petit tirent parti de la puissance du 64 bits.
Tout cela mis bout à bout conduit inexorablement à un gain de temps, donc de réactivité, qui, même s'il n'est pas forcément doublé, peut être ressenti y compris dans une utilisation "standard".
Ce ne sont donc pas seulement des secondes ou des minutes de gagnées dans des appplis lourdes qui sont importantes, mais des micro-secondes de réactivité qui apportent du confort dans l'utilisation.
Tout cela reste certes à être quantifié, vérifié, répertorié.
Mais je pense que l'optimisation du 64 bits avance petit à petit, au fur et à mesure des Màj des applis et des dépendances/biblios.