Un automobilista che sta viaggiando in autostrada a velocità costante, per controllare il tachimetro della propria auto chiede all'amico che lo accompagna di misurare il tempo che trascorre tra un segnale chilometrico e il successivo, cioè il tempo che l'auto impiega a percorrere 1 km.  L'amico al passaggio del primo segnale legge l'ora 15:11, al passaggio del successivo legge 15:49. La differenza è di 38 sec.  Deducono che l'auto sta andando alla velocità di  1/38 km/sec, cioè 3600/38 = 94.73… km/h [1 h = 3600 sec, quindi per passare da una velocità in km/sec al suo valore in km/h occorre moltiplicare per 3600].  Poiché il tachimetro segna 97 km/h, l'automobilista conclude che questo non è ben tarato.

Correggi le conclusioni dell'automobilista tenendo conto che, per quanto il suo amico sia pronto di riflessi, il tempo misurato non può essere esatto.

Anche se l'orologio potesse registrare i tempi al centesimo di secondo, possiamo supporre che l'amico possa commettere un errore di 1 secondo rilevando i tempi. Quindi avremmo che il tempo iniziale sia compreso tra 15:09 e 15:11 e che quello finale sia tra 15:48 e 15:50. In definitiva per la velocità dell'auto possiamo concludere che:
  37 s = 48−11 s ≤ tempo impiegato ≤ 50−9 s = 41 s
  1/41 km/s ≤ velocità ≤ 1/37 km/s,  ossia:
  87.804… km/h = 3600/41 km/h ≤ velocità ≤ 3600/37 km/h = 97.297 … km/h.
Il valore fornito dalla macchina (97 km/h) sta nell'intervallo trovato, che, in km/h, possiamo arrotondare a [87.8, 97.3].
    Volendo, QUI puoi trovare uno script per effettuare calcoli approssimati, da cui puoi ottenere:

[87.8, 97.3], ovvero 92.5 ± 4.8.

  Per altri commenti: approssimazioni e calcolo approssimato neGli Oggetti Matematici.