По словам учёных, такой механизм позволяет этому компьютеру адаптироваться к критическим ситуациям и обходить их без остановки работы.
Концепт Systemic Computation был описан Питером в его докторской работе ещё в 2007-м году: www0.cs.ucl.ac.uk/staff/P.Bentley/BEJ4.pdf
Суть проблемы с последовательными вычислениями в том, что если процессору при выполнении последовательности команд вдруг попадётся что-то «неведомое», то продолжить вычисления он не сможет — встанет на месте и мы увидим, например, «синий экран» или «core dumped».
Питер попытался решить эту проблему позаимствовав механизм у живого мозга, который выполняет задачи вне зависимости от каких-либо предшествующих операций. Его компьютер работает со случайными участками памяти, в которых содержится как исполняемый код, так и данные.
Сегодня на phys.org появилась новость о том, что Питер вместе с Кристосом создали прототип такого компьютера с помощью FPGA-чипа. Его основная работа заключается в том, чтобы проверять, что разные сегменты (разработчики называют их «systems») получают запросы (в случайном порядке) и выделять место для их работы. Таким образом, FPGA-чип является менеджером ресурсов и в дополнение к этому разруливает потоки данных между «системами».
Соответственно, кроме абсолютно параллельных вычислений (ни одной «системе» нужно ждать никакую другую для выполнения своих операций) мы имеем и хорошую отказоустойчивость — если одна из систем «поломается», то остальные продолжат работать как ни в чём не бывало. Но разработчики предлагают идти ещё дальше — использовать одни системы для проверки работоспособности других и их перезапуска (или небольшой переконфигурации) в случае ошибки.
В общем, по словам разработчиков, это прототип компьютера, который (в теории) невозможо «уронить».
Почитать подробнее об этом всём можно вот в этом файле: www0.cs.ucl.ac.uk/staff/ucacpjb/SABEC2.pdf
ссылка на оригинал статьи http://habrahabr.ru/post/169599/
Добавить комментарий