När något ska räknas ut, det finns angivna värden att räkna med. Så skiter man i att räkna med de riktiga värdena utan kastar in lägre värden med decimaler? Varför? Om man SKA räkna typ 3*40, varför räknar man då 3*39,7? Förutom att det är krångligare så blir det ju fel? Speciellt om man ska multiplicera nåt uppemot 60 ggr....