0
Почему 0.1 + 0.2 == 0.3. В результате выдаёт False???
5 odpowiedzi
+ 1
Sorry I didn't understand what you mean but this link may give you an idea as why
https://www.quora.com/Why-is-0-1+0-2-not-equal-to-0-3-in-most-programming-languages
+ 1
0.1 doesn't exactly represents it
Try this and you will see why the result is False
from decimal import Decimal
print(Decimal(0.1))
print(Decimal(0.2))
print(Decimal(0.3))
print(Decimal(0.1+0.2))
+ 1
Doesn't (0.1) initially matter (float)?
+ 1
thank you, bro.Now I figured it out
0
а это распространенный во многих языках программирования прикол, кстати. но чтобы побороть его достаточно округлять до нужного количества нулей после десятичеой точки.