Ты хочешь научится вычислять как компьютер?:)
по каким формулам считает, умножает, находит корень и квадраты компьютер?
Вопрос может показаться дебильным, мол скажете вы, что и считает компьютер по формулам умножения, вычитания, сложения, деления и т.п… но это не так. Насколько я знаю компьютер знает лишь одну операцию — суммирование, все остальное находится через определенные алгоритмы суммирования. Вот мне и стало интересно, как выглядят эти алгоритмы. Особенно корень, неужели когда компьютер извлекает корень, идет перебор, пока искомое значене не подтвердится? Или там чето очень хитрое используется?
Лучшие комментарии
Мне интересен алгоритм или то, как это реализовано. Например, я вообще не понимаю как можно было запрограмировать нахождение корня. Если это тупой подбор, то он считать должен бесконечно долго, учитывая дроби.
Компьютер все операции проводит в двоичном коде. С суммированием всё просто. Вычитание, если меня не подводит память, лучше проводить с использованием обратного или дополнительного хода. Есть 4 типа операций умножения: умножение младшего разряда вперёд со сдвигом большего влево, умножение младшего разряда вперёд со сдвигом суммы частичного произведения вправо, умножение старшего разряда вперёд со сдвигом младшего вправо, умножение старшего разряда вперёд со сдвигом влево. Ещё есть методы умножения чисел с плавающей запятой и методы ускорения умножения. Про деление, мне лень дальше листать.
Битовые операции, котэ ))) Добро пожаловать в основы дискретной математики xD
Если это тебе о чём-то говорит. Сам я не грамотный и ни фига не шарю.
Метод бисекции в двоичной системе счисления на примере вычисления квадратного корня
Метод бисекции в двоичной системе счисления на примере вычисления квадратного корня
Карочи нашёл ответ. Умножение как два пальца, регистр смещается — деление или умножение. Корень и прочее находится довольно таки приближено, сначало число раскладывают в ряд, возможно в ряд Тейлора, потом считают.
Напоминает, как китацы умножают черточками.
Я в этом вообще не понимаю, я только могу иногда ляпать почти смешные шутки, но..., не в этот раз.
все верно, но компьютер все считает приближенно, все таки длинна числа ограничена. Видел, как для одного человека шоком было увидеть все 16 знаков, которые якобы может запомнить число двойной точности double. Целое число никогда не будет целым в этом представлении.
Читай также