Форум атеистического сайта
Атеизм => Научно-философские основы атеизма => Тема начата: SE от 17 Март, 2008, 16:45:56 pm
-
Ученые из Политехнического института Ренселера при поддержке IBM создали Eddie - искусственного интеллектуального агента, соответствующего четырехлетнему ребенку по уровню развития.
Eddie, в котором реализованы технологии искусственного интеллекта и сложные методы моделирования, ведет себя и рассуждает как типичный мальчик данного возраста, утверждают разработчики. Его "интеллект" основан на системе формальной логики, а не имитации структур, отвечающих за высшую нервную деятельность человека.
Eddie тестируется и обучается в виртуальном мире Second Life, как наиболее подходящей для этих целей цифровой интерактивной среде.
http://rnd.cnews.ru/math/news/line/inde ... /17/292415 (http://rnd.cnews.ru/math/news/line/index_science.shtml?2008/03/17/292415)
-
Не верю!
-
Не вполне ясно, в какой именно области компьютер начал вести себя как четырёхлетний мальчик. В некоторых отраслях искусственный интеллект уже вполне может потягаться и с квалифицированными живыми профессионалами, например в оптимизирующих компиляторах, в шахматах, и т.п.
К тому же не вполне ясно, каков критерий появления сознания и ощущения собственного бытия у искусственной системы - материализм тут бессилен.
-
Виртуальный «ребенок», управляемый искусственным интеллектом, впервые успешно прошел тесты, предназначенные для нормальных детей 4-5-летнего возраста.
Примерно в 4 или 5 лет дети нашего вида начинают ориентироваться в мире достаточно, чтобы решать задачи на «ложные убеждения». Этот тест проверяет способность ребенка понимать, что убеждения окружающих могут отличаться от его собственных – и от объективной реальности. Это крайне полезное знание позволяет нам лучше осознавать действительность, «взвешивая» чужие утверждения собственными. Однако даже для самого изощренного компьютерного интеллекта, способного решать сложнейшие логические задачи, этот тест до сих пор представлял непреодолимое препятствие.
Впервые это удалось Эдди (Eddie) – так назвали свое детище создатели новой интеллектуальной системы. Пока что основное применение новой способности они видят в компьютерных играх. «Компьютерные персонажи, населяющие сегодняшние игры, – говорит Селмер Брингсйорд (Selmer Bringsjord), – не обладают полноценной индивидуальностью хотя бы потому, что не осознают особенности индивидуальностей игроков». В будущем, – считает он – виртуальные персонажи смогут лучше понять живых игроков, а значит – и предсказать их поведение и мотивацию, превратившись в намного более серьезных соперников. Впрочем, коллеги Брингсйорда считают, что их разработка применима и в других технологичных областях. К примеру, поисковые системы, способные понять и узнать посетителя, его мотивы, смогут предложить и более точные результаты поиска.
Психологи широко применяют тест на ложные убеждения для диагностирования некоторых отклонений развития – в частности, аутизма. Испытуемому демонстрируется сцена, в которой ребенок кладет какой-нибудь предмет в ящик, закрывает его и уходит из комнаты. Затем его мама прячет предмет в другое место – ребенок не видит этого. Будучи неспособным увидеть мир глазами других, больные аутизмом (или слишком еще маленькие дети, или компьютеры) на вопрос о том, где будет ребенок искать предмет, отвечают, что там, куда его положила мать. Только в возрасте 4-5 лет человеческие дети начинают понимать, что ребенок в этой сценке ошибочно будет считать предмет по-прежнему лежащим в ящике.
Искусственный разум Эдди ученые во главе с Селмером Брингсйордом испытывали в «полевых» условиях – в виртуальном мире Second Life. А дело было так. Два персонажа-аватара, управляемые людьми, показали Эдди два чемодана – зеленый и красный, в котором лежал пистолет. Затем один персонаж ушел, а второй тем временем переложил пистолет в зеленый чемодан и закрыл оба. Затем Эдди спросили, где ушедший человек будет разыскивать пистолет – и тот проявил чудеса понимания, корректно ответив: в красном чемодане.
Сам Эдди устроен так, что постоянно поддерживает и обновляет базу данных фактов – например, о том, где лежал и лежит пистолет – связанных с другими обстоятельствами происходящего – например, о том, кто присутствовал при том, как оружие переместилось в другое место. У него довольно простая логика: если кто-то видел что-то, он об этом знает, если не видел – то нет. В таких несложных ситуациях, как тестирование с чемоданами, это помогло.
Впрочем, ряд специалистов по искусственному интеллекту считают, что важность этого достижения сильно преувеличена – тем более, что некоторые схожие возможности уже были реализованы и показаны на роботах. По их мнению, намного более интересной демонстрацией была бы способность искусственного интеллекта научиться прохождению этого теста, будучи изначально неспособным проходить его – так, как это делает интеллект наш, естественный.
http://www.popmech.ru (http://www.popmech.ru)
-
Элементарный способ выбить финансирование. Выдернули один конкретный тест, или несколько тестов, заточили под них программу и сформулировали результат в таких терминах, чтобы звучало сенсационно.
Может эта программа что-либо делать из обиды, из хорошего настроения, из интереса к чему-либо понравившемуся? Может ей вообще что-то нравиться, а что-то нет, причём в зависимости от тысяч своих внутренних предпочтений, которые ещё и меняются в зависимости от обстоятельств, а не абы как случайно?
-
Элементарный способ выбить финансирование. Выдернули один конкретный тест, или несколько тестов, заточили под них программу и сформулировали результат в таких терминах, чтобы звучало сенсационно.
Может эта программа что-либо делать из обиды, из хорошего настроения, из интереса к чему-либо понравившемуся? Может ей вообще что-то нравиться, а что-то нет, причём в зависимости от тысяч своих внутренних предпочтений, которые ещё и меняются в зависимости от обстоятельств, а не абы как случайно?
Ну, Прохвессор, ты и даешь! Разве может программа "обижаться" и находиться в "хорошем" или "дурном" настроении. Современные компьютерные программы (между прочим, и человеческая речь), это, как заезженная пластинка, пока в лоб не дашь, мысль стоит на месте. Смешно даже такие программы называть ИИ.
-
Виртуальный «ребенок», управляемый искусственным интеллектом, впервые успешно прошел тесты, предназначенные для нормальных детей 4-5-летнего возраста.
А кто составлял тесты?
-
Виртуальный «ребенок», управляемый искусственным интеллектом, впервые успешно прошел тесты, предназначенные для нормальных детей 4-5-летнего возраста.
А кто составлял тесты?
Академики с 4 - 5-летним уровнем мышления.
-
Выдернули один конкретный тест, или несколько тестов, заточили под них программу и сформулировали результат в таких терминах, чтобы звучало сенсационно.
Может эта программа что-либо делать из обиды, из хорошего настроения, из интереса к чему-либо понравившемуся? Может ей вообще что-то нравиться, а что-то нет, причём в зависимости от тысяч своих внутренних предпочтений, которые ещё и меняются в зависимости от обстоятельств, а не абы как случайно?
Не все сразу, обождите :wink:
-
Выдернули один конкретный тест, или несколько тестов, заточили под них программу и сформулировали результат в таких терминах, чтобы звучало сенсационно.
Может эта программа что-либо делать из обиды, из хорошего настроения, из интереса к чему-либо понравившемуся? Может ей вообще что-то нравиться, а что-то нет, причём в зависимости от тысяч своих внутренних предпочтений, которые ещё и меняются в зависимости от обстоятельств, а не абы как случайно?
Не все сразу, обождите :wink:
А чего ждать SE! Работы в области робототехники с ИИ необходимо приравнять к ТЕРРОРИЗМУ и ЗАПРЕТИТЬ, а спецов и жаждущих ПОВЕЛЕВАТЬ людьми, при помощи технических средств, объявить врагами ЧЕЛОВЕЧЕСТВА. (Ну и конечно, религиозников вместе с ними).
-
А чего ждать SE! Работы в области робототехники с ИИ необходимо приравнять к ТЕРРОРИЗМУ и ЗАПРЕТИТЬ, а спецов и жаждущих ПОВЕЛЕВАТЬ людьми, при помощи технических средств, объявить врагами ЧЕЛОВЕЧЕСТВА. (Ну и конечно, религиозников вместе с ними).
Это шутка или Вы серьезно? Создание ИИ неизбежно.
-
А чего ждать SE! Работы в области робототехники с ИИ необходимо приравнять к ТЕРРОРИЗМУ и ЗАПРЕТИТЬ, а спецов и жаждущих ПОВЕЛЕВАТЬ людьми, при помощи технических средств, объявить врагами ЧЕЛОВЕЧЕСТВА. (Ну и конечно, религиозников вместе с ними).
Это шутка или Вы серьезно? Создание ИИ неизбежно.
ЭТО НЕ ШУТКА, SE! При нынешней скотской нравственности, такие разработки приведут только к НЕГАТИВУ. Оглянитесь вокруг SE, везде Ложь и Жестокость. Даже Космос уже используют для Войн и напичкали (ближний космос) его такими опасными системами, что через 200 лет ОНИ разбомбят планету Земля. Между научными разработками и умением пользоваться, лежит колоссальная пропасть.
Это пишет вам человек, который сам занимался разработкой ИИ и сознательно закрыл техническую информацию в этом направлении.
-
Три раза ХА. То что ИИ смог определять ложность с помощью базы так это не ново. Это пример экспертной системы. "Ум" ьтакой системой ограничивается базой знаний, то есть базой данных, состоящих (в упрщённом виде) из утверждений ЕСЛИ... ТО. Да я вам такую экспетную систему в Экселе сделаю :lol:
К сожалению мылящие машины пока дальше НС таракана не ушли, хотя и эта система стимул-реакция уже достижение...
-
Три раза ХА. То что ИИ смог определять ложность с помощью базы так это не ново. Это пример экспертной системы. "Ум" ьтакой системой ограничивается базой знаний, то есть базой данных, состоящих (в упрщённом виде) из утверждений ЕСЛИ... ТО. Да я вам такую экспетную систему в Экселе сделаю :lol:
К сожалению мылящие машины пока дальше НС таракана не ушли, хотя и эта система стимул-реакция уже достижение...
Рендалл, "база знаний" и "база данных", это разные ВЕЩИ. Вот русские рассматривают школьные программы и вузовские, как БАЗОВЫЕ ЗНАНИЯ, хотя по существу, все эти программы (знания) примитив, уровня пещерного человека. А "база данных", это ограниченная информация по направлениям. И никакого отношения к Знаниям не имеет. Перемешали все в одну кучу и разобраться не могут, что является ЗНАНИЕМ, а что ЛЕЖИТ НА СКЛАДЕ, как хлам (на базе письменной речи).
-
Три раза ХА. То что ИИ смог определять ложность с помощью базы так это не ново. Это пример экспертной системы. "Ум" ьтакой системой ограничивается базой знаний, то есть базой данных, состоящих (в упрщённом виде) из утверждений ЕСЛИ... ТО. Да я вам такую экспетную систему в Экселе сделаю :lol:
К сожалению мылящие машины пока дальше НС таракана не ушли, хотя и эта система стимул-реакция уже достижение...
Не знаю подробностей эксперимента, но думаю и надеюсь, что в этом случае основное достижение в том что робот САМ сформировал базу ЕСЛИ... ТО и смог ее применять, а это не мало, так как интеллект естественный во многом держится на этом принципе.
-
При нынешней скотской нравственности, такие разработки приведут только к НЕГАТИВУ. Оглянитесь вокруг SE, везде Ложь и Жестокость.
Жестокость была всегда и везде, и ни что не заставит науку остановиться, аналогичная ситуация с генной инженерией, оружием массового поражения и т.д.
Это пишет вам человек, который сам занимался разработкой ИИ и сознательно закрыл техническую информацию в этом направлении.
А можно немного подробнее, хотябы какое направление? :wink:
-
".... а это не мало, так как интеллект естественный во многом держится на этом принципе".
SE, не распространяйте глупости! Естественный Интеллект, ни вами, ни иными спецами НЕ ПОЗНАН и, "он держится и состоит из иных принципов", чем те, на которые вы ссылаетесь. Не фантазируйте в той области, где вы не компетентны. Религиозники рассматривают Интеллект, как божественная формация, вот Атеисты и пытаются им ВТОЛКОВАТЬ, что ИНТЕЛЛЕКТ, это СУММА некоторых закономерностей природы, независимые от божественности, но сами попадают в информационную ловушку, так как не могут отличить Естественную Информацию от ИСКУССТВЕННОЙ. А по сему, нет разницы, между Церковниками и Материалистами, ибо, фанатизм у обоих сторон ОДИНАКОВ.
-
Amur писал(а):
Это пишет вам человек, который сам занимался разработкой ИИ и сознательно закрыл техническую информацию в этом направлении.
А можно немного подробнее, хотябы какое направление?
ЭТО ОПАСНО, ДОРОГОЙ, ОЧЕНЬ!
-
Создание ИИ неизбежно.
ИИ как личности? Очень и очень сомнительно...
-
Создание ИИ неизбежно.
ИИ как личности? Очень и очень сомнительно...
На сегодняшний уровень знаний, сомнительно, но в принципе нет проблем. "Личность" это не внешняя характеристика, а внутренний Мир, а этот мир, почти у всех людей одинаков. Есть различия, но не значительные. Это-то и, прекрасно. Мы все жаждем одного и того же, но методы достижения различны. Только и всего.
-
Рендалл, "база знаний" и "база данных", это разные ВЕЩИ.
Амур, прочитайте мой пост ещё раз. Я их там вполне различаю.
Перемешали все в одну кучу и разобраться не могут, что является ЗНАНИЕМ, а что ЛЕЖИТ НА СКЛАДЕ, как хлам (на базе письменной речи).
Знания это то, что остаётся в мозгу у человека после прохождения информационного потока.
Не знаю подробностей эксперимента, но думаю и надеюсь, что в этом случае основное достижение в том что робот САМ сформировал базу ЕСЛИ... ТО и смог ее применять, а это не мало, так как интеллект естественный во многом держится на этом принципе.
Я тоже не могу понять что же нового. Так как роботы итак работают по такому принципу. Когда моделировали муравьёв (смотрел на канале Нешнл Джиографик) им дали кучу дисков и несколько ограничений типа ЕСЛИ наткнёшься на другого робота или стену, ТО поверни. ЕСЛИ наткнёшься на диск ТО брось свой. Где-то так... я не помню точно, НО суть в том, что через некоторое время эти роботы самостоятельно собрали все диски в центр хокейного поля, по котрому они катались.
"Тараканы" тоже орианетированы просто. ЕСЛИ увидел движение, ТО прячься (то есть вернись назад). И т.д.
-
Amur писал(а):
Рендалл, "база знаний" и "база данных", это разные ВЕЩИ.
Амур, прочитайте мой пост ещё раз. Я их там вполне различаю.
Цитата:
Перемешали все в одну кучу и разобраться не могут, что является ЗНАНИЕМ, а что ЛЕЖИТ НА СКЛАДЕ, как хлам (на базе письменной речи).
Знания это то, что остаётся в мозгу у человека после прохождения информационного потока.
То, что вы умеете различать и отделять, я понял уже давно. Мое замечание, это напоминание не вам, другим. Что касается ЗНАНИЯ, то здесь, на мой взгляд, вы не правы. Знания существуют независимо, есть человек или его нет. Человек может лишь констатировать эти Знания (то есть, познать закономерности Природы). А то, что человек фантазирует, по поводу закономерностей (сознательно или не сознательно лжЁт) не является ЗНАНИЕМ, даже если эти буйные фантазии преподаются в учебных заведениях, насильно внедряя в головной мозг человека.
-
Amur писал(а):
Это пишет вам человек, который сам занимался разработкой ИИ и сознательно закрыл техническую информацию в этом направлении.
А можно немного подробнее, хотябы какое направление?
Можно, конечно, если будете следить за моим ходом мысли.
Природа не создавала специально "мужчину" и "женщину". Она создала однополую клетку, в которой содержалось поровну две сущности (Инь-Янь, или, мужское и женское начала). Забудьте, что вы русский или иной нации, черный или белый. И просчитайте свои потребности и какие общие для обоих полов, а какие отличаются. И тогда определите, соответствует ли внутренний мир, внешним параметрам, как мужчина или женщина. Если выверите эти соотношения, то сможете их выразить в числовом выражении и Измерить. И вот тут, мы приходим к ПРОБЛЕМЕ Системы Мер, какими МЕРАМИ измерять, метрами, оранжевой волной или наноМетром. Но мне кажется, что ни одним из них, невозможно измерить внутренний мир человека и с точностью объединить Тело и Душу в Единое Целое. Осмыслив Систему теоретически, можно перейти к техническому моделированию, ИИ.
-
На сегодняшний уровень знаний, сомнительно, но в принципе нет проблем.
Не уверен. Мне как раз представляется, что проблема создания ИИ носит в первую очередь принципиальный, а не технический характер. Как можно создать то, в чем мы сами еще толком не разобрались? (Я про сознание: как оно возникает, как и от чего зависит, как функционирует...)
-
На сегодняшний уровень знаний, сомнительно, но в принципе нет проблем.
Не уверен. Мне как раз представляется, что проблема создания ИИ носит в первую очередь принципиальный, а не технический характер. Как можно создать то, в чем мы сами еще толком не разобрались? (Я про сознание: как оно возникает, как и от чего зависит, как функционирует...)
ВЕРНО, что теоретическое обоснование носит ПРИНЦИПИАЛЬНЫЙ ХАРАКТЕР. Но вы, уважаемый, не желаете замечать реальную ситуацию в Мире, что все технические НОВОВЕДЕНИЯ направляются на ВОЕНЫЕ НУЖДЫ, что Политика, внутренняя и внешняя стоит на ТРЕХ КИТАХ, - Хлеба-Зрелища-Войны и РЕЧЬ, как ЧЕЛОВЕЧЕСКИЙ ФАКТОР превратили в ОРУЖИЕ ПОРАБОЩЕНИЯ. Вы (и не только вы) не хотите замечать, что компьютерная технология (ЭВМ-ПЭВМ) создавалась как раз для ОСМЫСЛЕНИЯ "как возникает СОЗНАНИЕ, как и от чего зависит, как функционирует", НО, превращена, КАК ВСЕГДА, в СИСТЕМУ ОБОЛВАНИВАНИЯ, мультипликацию. При такой НРАВСТВЕНОСТИ УБОГОЙ, не следует, ни теоретически, ни практически, что-то делать. ВСЕРАВНО, ВСЕ БЛАГИЕ НАМЕРЕНИЯ, БУДУТ ПРЕВРАЩЕНЫ, В ДЕРЬМО. Чего стоит только один пример, ДЕТЕКТОР ЛЖИ.
-
Мне как раз представляется, что проблема создания ИИ носит в первую очередь принципиальный, а не технический характер. Как можно создать то, в чем мы сами еще толком не разобрались?
Именно.
Более того, есть весьма серьезные основания считать, что ни один из путей развития ИИ из тех, что развивались последние полвека, к положительному результату не может привести вообще, в принципе.
-
Мне как раз представляется, что проблема создания ИИ носит в первую очередь принципиальный, а не технический характер. Как можно создать то, в чем мы сами еще толком не разобрались?
Именно.
Более того, есть весьма серьезные основания считать, что ни один из путей развития ИИ из тех, что развивались последние полвека, к положительному результату не может привести вообще, в принципе.
А ПОЧЕМУ? Снег Север! Прокомментируй!
P.S. Еще в 80-х годах мне приходилось читать зарубежную информацию на сей счет и в частности японских спецов, которые обещали сконструировать робота с 4 -мя органами чувств (вижу, слышу, координация движения, говорю). Не знаю, выполнили ли япошки свои обязательства или нет, но, судя, что робототехника пошла другим путем, вряд ли. Особенно с речью.
-
А ПОЧЕМУ? Снег Север! Прокомментируй!
Я уже много писал на эту тему ранее. Если в двух словах – потому, что материальная основа мышления, мозг – по всей видимости, не фон-неймановская машина. А все попытки реализации ИИ основаны на программировании именно фон-неймановских машин. И результат этих попыток более чем обескураживающий.
P.S. Еще в 80-х годах мне приходилось читать зарубежную информацию на сей счет и в частности японских спецов, которые обещали сконструировать робота с 4 -мя органами чувств (вижу, слышу, координация движения, говорю). Не знаю, выполнили ли япошки свои обязательства или нет, но, судя, что робототехника пошла другим путем, вряд ли. Особенно с речью.
В целом - не выполнили, поскольку полноценная речь, например, невозможна без мышления. Максимум на что способна программа – синтез, да и тот н слишком качественный. Интонации, например, ИИ недоступны совершенно.
А «вижу, слышу, координация движения» реализованы на уровне насекомого... что, впрочем, тоже немалое достижение для современных ЭВМ, которое я не собираюсь преуменьшать.
-
Более того, есть весьма серьезные основания считать, что ни один из путей развития ИИ из тех, что развивались последние полвека, к положительному результату не может привести вообще, в принципе.
Скорее всего так и есть, НО существующие системы уже работают и выполняют слодные задачи, так что даже сам поиск решения уже даёт свои плоды.
Мне кажется, что AI будет реализован через ИНС, но алгоритм ьудет невероятно сложен. Хотя персептрон и адаптивный резонанс это как телега и реактивный истребитель :D
-
В целом - не выполнили, поскольку полноценная речь, например, невозможна без мышления. Максимум на что способна программа – синтез, да и тот н слишком качественный. Интонации, например, ИИ недоступны совершенно.
Тут проблема еще и в другом. Спецы, как мне приходилось не однократно слышать от них, пытаются "обучить машину", то есть, реализовать в программе, Грамматику языка и перепутали процессы письменности с голосовой речью.
-
Еще заметка:
Четырехлетний Eddie очень похож на обычного мальчика с той лишь разницей, что он существует только в виртуальном мире Second Life. Этот ребенок – продукт искусственного интеллекта, основанного на логике и сложных методиках проектирования. Для его создания потребовались вычислительные ресурсы одного из самых мощных суперкомпьютеров в мире.
Созданный исследователями из Политехнического института Rensselaer, Eddie обладает собственным набором убеждений, способностью рассуждать и делать выводы, аналогично человеку в 4-летнем возрасте.
Eddie использует прототип разрабатываемой модели "Теория мышления", позволяющий ему понимать, предсказывать и управлять поведением других агентов или даже реальных игроков в виртуальном мире. Возможно, именно эта модель позволит адаптировать системы искусственного интеллекта для существования в реальном мире.
Eddie – это всего лишь первый шаг в развитии стратегии "разделяй и властвуй" в инженерии создания разума.
Следующие версии этого искусственного интеллекта найдут широкое применение не только в индустрии развлечений и компьютерных играх, но и в образовательных целях. В будущем можно будет создавать искусственные среды, позволяющие реальным людям взаимодействовать с синтезированным разумом, не уступающем им. Такие системы позволили бы моделировать возможные бедствия, катастрофы и другие ситуации, учитывая с высокой точностью и человеческий фактор. Или можно, например, спроектировать модель поведения террористов и заложников для разработки антитеррористической операции.
Но в настоящее время группа разработчиков столкнулась с проблемой сортировки постоянно растущих знаний. Поскольку Eddie полностью построен на формальной логике и точных теоремах, скорость его мышления напрямую зависит от степени оптимизированности применяемых алгоритмов и мощности аппаратных средств.
Эти исследования поддерживают и сторонние разработчики из IBM и других компаний. Ддя работы потребовалась также поддержка Вычислительного центра нанотехнологий Политехнического университета Rensselaer (CCNI), представляющего собой сеть суперкомпьютеров Blue Gen, работающих под управлением Linux на базе процессоров Opteron от AMD. Общая мощность вычислительного центра – 100 терафлоп.
http://www.f1cd.ru/news/pc/186/ (http://www.f1cd.ru/news/pc/186/)
-
Его "интеллект" основан на системе формальной логики, а не имитации структур, отвечающих за высшую нервную деятельность человека.
...
При таких условиях что-то мне как программисту крайне сомнительно, что это - ИИ. Новый вариант "Элизы" небось...
То-то и оно, собственно, что системы на нейроструктурах, они из 4-хлетних могут превращатся в 5-летних и далее, хотя бы теоретически, а вот с системами на основе одной формальной логики я сильно сомневаюсь...
Впрочем, это все словоблудие журналистов, листингов тут не видать... :> что там в действительности да как...
2Amur "так не могут отличить Естественную Информацию от ИСКУССТВЕННОЙ"
собственно, никакого такого отличия и нет.
-
Впрочем, это все словоблудие журналистов, листингов тут не видать... :> что там в действительности да как....
а вы уверены что разберетесь в листингах? :)
Его "интеллект" основан на системе формальной логики, а не имитации структур, отвечающих за высшую нервную деятельность человека.
...
При таких условиях что-то мне как программисту крайне сомнительно, что это - ИИ. Новый вариант "Элизы" небось...
То-то и оно, собственно, что системы на нейроструктурах, они из 4-хлетних могут превращатся в 5-летних и далее, хотя бы теоретически, а вот с системами на основе одной формальной логики я сильно сомневаюсь...
Ну вряд ли там совсем профаны, нейроструктуры для обучения наверняка использовались...
-
Впрочем, это все словоблудие журналистов, листингов тут не видать... :> что там в действительности да как....
а вы уверены что разберетесь в листингах? :)
Если это действительно ИИ, все зубы даю - буду разбиратся и разберусь... Ууу, тогда держись шарик, куда там Архимеду... :>>>
8>E>
-
Самостоятельно собирать информацию недостаточно. Необходима способность самостоятельно создавать категории, решать ту самую проблему сортировки знаний, с которой так "неожиданно" столкнулись создатели. Причем - без прямого программирования, только на предъявленных примерах. Как тут уже правильно сказали, вот когда ИИ продемонстрирует способность определять ложные убеждения, изначально ее не имея, тогда и поговорим.
-
Необходима способность самостоятельно создавать категории, решать ту самую проблему сортировки знаний, с которой так "неожиданно" столкнулись создатели.
Я вам скажу, не только "логические категории", но и любые другие... По сути-то, необходима - Машина Целей. :>
И собственные cамомодифицирующиеся цели. :>
(что вообще-то обоюдоостро :> )
-
Его "интеллект" основан на системе формальной логики, а не имитации структур, отвечающих за высшую нервную деятельность человека.
Учитывае сие - тоже не верю.
Вероятно тоже самое что Elisa-попугай в той или иной мере.... Хотя коэш бы посмотрел на него :>