L’informatique est une science qui utilise deux notions fondamentales : les nombres et le temps. Le traitement d’informations demandant une synchronisation dans l’exécution des calculs, il est impératif d’avoir une base de temps exploitable.
Les débuts de l’informatique et de la gestion du temps ont été simplifiées au maximum, par souci de gestion de la mémoire, chère à l’époque. Ainsi, les dates étaient découpées en années, mois, jours, heures, minutes, secondes, tous sur 2 caractères, et ces dernières ont donné des sueurs froides quant à l’anticipation au passage à l’an 2000, et le risque de retourner virtuellement en 1900 ! C’était sans compter sur 3 avancées :
- la gestion logicielle des horloges en mémoire, augmentant les capacités des années de 2 à 4 caractères (00 devenant 1900 ou 2000)
- l’heure Unix, devenue une norme intitulée POSIX, équipant aujourd’hui la majorité des systèmes, dont la date commence au 1er janvier 1970 et le stockage est le nombre de secondes depuis cette date, plus flexible qu’un système découpé comme avant
- la synchronisation quasi automatique des dispositifs informatiques connectés, grâce aux serveurs de temps Internet et les horloges atomiques
Vous constaterez, parfois, que certains bugs affichent une date au 1er janvier 1970, ou une date relative « Depuis 49 ans » (si nous sommes en 2018) si la notion de date est inaccessible ou égale à 0.