7 февраля 2015 7.02.15 9 6414

по каким формулам считает, умножает, находит корень и квадраты компьютер?

Вопрос может показаться дебильным, мол скажете вы, что и считает компьютер по формулам умножения, вычитания, сложения, деления и т.п… но это не так. Насколько я знаю компьютер знает лишь одну операцию — суммирование, все остальное находится через определенные алгоритмы суммирования. Вот мне и стало интересно, как выглядят эти алгоритмы. Особенно корень, неужели когда компьютер извлекает корень, идет перебор, пока искомое значене не подтвердится? Или там чето очень хитрое используется?


Поддержи Стопгейм!
Комментарии отключены

Лучшие комментарии

Ты хочешь научится вычислять как компьютер?:)
Мне интересен алгоритм или то, как это реализовано. Например, я вообще не понимаю как можно было запрограмировать нахождение корня. Если это тупой подбор, то он считать должен бесконечно долго, учитывая дроби.
Компьютер все операции проводит в двоичном коде. С суммированием всё просто. Вычитание, если меня не подводит память, лучше проводить с использованием обратного или дополнительного хода. Есть 4 типа операций умножения: умножение младшего разряда вперёд со сдвигом большего влево, умножение младшего разряда вперёд со сдвигом суммы частичного произведения вправо, умножение старшего разряда вперёд со сдвигом младшего вправо, умножение старшего разряда вперёд со сдвигом влево. Ещё есть методы умножения чисел с плавающей запятой и методы ускорения умножения. Про деление, мне лень дальше листать.
Битовые операции, котэ ))) Добро пожаловать в основы дискретной математики xD
Карочи нашёл ответ. Умножение как два пальца, регистр смещается — деление или умножение. Корень и прочее находится довольно таки приближено, сначало число раскладывают в ряд, возможно в ряд Тейлора, потом считают.
Я в этом вообще не понимаю, я только могу иногда ляпать почти смешные шутки, но..., не в этот раз.
все верно, но компьютер все считает приближенно, все таки длинна числа ограничена. Видел, как для одного человека шоком было увидеть все 16 знаков, которые якобы может запомнить число двойной точности double. Целое число никогда не будет целым в этом представлении.
Читай также