Если один нанобот рассеивает 100-200пВт энергии, то теработ (1 000 000 000 000 наноботов) - 100-200Вт. Это максимум, который нормально выдерживает человеческий организм. Значит возникает вопрос: теработ - это предел, или нет?
Максимальное количество энергии, потребляемое человеком в сутки - это около 7000 килокалорий (спортсмены, кузнецы, грузчики) - 29288кДж - 8,14кВт*ч - около 340Вт, а в пике (быстрый бег) - это 900ккал/ч - порядка 3,5кВт. И из этого мозг потребляет от силы процентов 20. Так что вряд ли теработ является пределом (хотя система охлаждения у человека очень мощная, редко у кого из сухопутных такая есть)
Можно поговорить о нанотехнологиях, о квантовых компьютерах.
Что такое нанотехнология, мне более-менее понятно. Но вот что такое квантовый компьютер? Из научно-популярной литературы у меня сложилось впечатление, что это вторая жизнь аналоговых вычислительных машин. Так это или не так?
Сейчас во всем мире идут работы над квантовыми компьютерами. Нобелевский лауреат Фейнман в 1986 году опубликовал статью о перспективах таких компьютеров, и с тех пор ученые начали гонку в этом направлении. Что такое квантовый компьютер? В нем элементарным вычислительным устройством процессора является не радиолампа, не транзистор, а один-единственный атом, например, атом фосфора-31. По законам квантовой механики атом меняет свое энергетическое состояние скачком и происходит это со скоростью света. Штука как раз для компьютера - невозбужденное состояние - ноль, возбужденное - единица. И здесь открываются потрясающие возможности не только и не столько для дальнейшей миниатюризации компьютеров, сколько для фантастического повышения их быстродействия.
Например, в 1994 году американский исследователь Питер Шон подсчитал, что квантовый компьютер вычислит факториал тысячезначного числа всего за несколько часов. В то время как несколько сотен обычных компьютеров потратили бы на эту задачу 10^25 лет. Для справки: возраст Вселенной 10^10 лет.
Может показаться, что квантовый компьютер — это разновидность аналоговой вычислительной машины. Но это не так: по своей сути это цифровое устройство, но с аналоговой природой.
Основные проблемы, связанные с созданием и применением квантовых компьютеров:
необходимо обеспечить высокую точность измерений;
внешние воздействия могут разрушить квантовую систему или внести в нее искажения.
Взято здесь:http://ru.wikipedia.org/wiki/%D0%9A%D0%B2%D0%B0%D0%BD%D1%82%D0%BE%D0%B2%D1%8B%D0%B9_%D0%BA%D0%BE%D0%BC%D0%BF%D1%8C%D1%8E%D1%82%D0%B5%D1%80
И еще нейро компьютеры:
Несмотря на то, что вычислители были построены "по заветам" Тьюринга, их стали несправедливо называть фон-неймановскими – по имени одного из американских разработчиков. С тех пор большинство. ЭВМ в мире построено по этому принципу.
Однако в 1943 году математики Мак-Каллок и Питтс опубликовали статью, в которой предложили альтернативу тьюринговской машине - вычислитель с принципиально иным типом архитектуры - нейросетевым. Идея была позаимствована у природы, то есть за основу предполагаемой конструкции математики взяли обычный мозг. Было только непонятно, как программировать такие машины. Но в конце 50-х Фрэнк Розенблатт приходит к мысли, что гипотетические нейросети незачем программировать. Их, как и биологический прототип, нужно обучать!
В 1960 году Розенблатт построил первый примитивный нейрокомпьютер, который успешно распознавал некоторые буквы, Автор назвал свое детище персептроном (от англ. perception - восприятие). В газетах появились статьи о том, что искусственный интеллект на подходе. Прошло четверть века. В 1986 году Дэвид Румельхарт придумывает перспективный метод обучения персептрона. Почуяв жареное, встрепенулись военные. В Агентстве перспективных военных исследований США решили, что нейрокомпьютеры - как раз их профиль, и деньги полились рекой. Начался нейросетевой бум...
Тут нужно, пожалуй, пояснить, чем нейрокомпьютеры (персептроны) принципиально отличаются от обычных фон-неймановских машин. Поняв это, вы поймете, чем наш мозг отличается от компьютера.
Чтобы не вдаваться в технические подробности, можно провести аналогию. Допустим, у вас есть функция: Y=(7Х+5)/9. Как Получить Y при Х=4? Четыре умножаете на семь. Затем прибавляете пять. Затем делите полученный результат на девять. Последовательность ваших действий является алгоритмом, то есть программой.
Но есть другой способ решить ту же задачу. Можно построить график этой функции. Потом взять линейку и провести вверх перпендикуляр от точки 4 на оси X. Находите точку пересечения функции к этой прямой и получаете искомый результат.
Казалось бы, какая разница между этими двумя способами? И то и другое - математика, чтобы построить функцию, нужно раз за разом подставлять в формулу разные значения X. Почему бы сразу не подставить нужное, зачем лишний ход - функцию рисовать?..
А представьте себе ситуацию, когда у нас нет формулы, но есть график. Ну, например, нарисуйте на миллиметровке профиль своей любимой девушки. Вы замучаетесь искать функцию (точнее, целый набор функций), который описывает этот профиль. А профиль вот он!
Так вот, процесс обучения нейросети, например, воспитание человека, является своего рода построением готового графика. Ребенку формируют поведенческие стереотипы, учат, как поступать в разных ситуациях - дают готовый график. Сталкиваясь с необычным и экстраполируя этот поведенческий график в разные стороны, ребенок понимает, как поступать в незнакомых, но схожих ситуациях.
Вашему головному нейрокомпьютеру родители сообщают готовые результаты - какое Y1 при X1. Вы ставите в уме точку. Вам дают вторую пару чисел - Х2, Y2, вы ставите вторую точку... Если у вас много-много точек, вы размещаете их в системе координат, соединяете ближайшие, и таким образом у вас оформляется замечательная кривая поведения. Теперь вы можете по любому X выявить Y, не зная никаких формул. Просто бросив взгляд на рисунок.
Интуиция, между прочим, работает так же. Нейросеть у нас в голове обобщает опыт, массив знаний, строит график и по нему выдает готовый результат.