Похоже на прогноз апокалипсиса.Когда количество компьютеров, объединенных в сеть приблизится к количеству нейронов в сетях человеческого мозга... появится новый разум.
Только не путем разработки программы - будет столько багов, что получится не иск. интеллект, а иск. идиот, заикающийся и зависающийФорумчанин написал(а):возможно ли создание ИИ, если да, то каким образом и пожалеет ли человечество о создании ИИ?
Опыт уже был, приближали... Машинам давали иллюзию вариативности, машины сочиняли музыку, машины строили какие-то заключения... но при попытке сделать все характеристики мышления в комплексе получалсяShell написал(а):Только не путем разработки программы
Shell написал(а):иск. идиот, заикающийся и зависающий![]()
скорее так и будет. Позаимствовать у природы релаьнее.Shell написал(а):Может биологи вырастят какой-нибудь супермозг, изменив гены. Или промоделируют работу человеческого мозга в сети из иск. нейронов.
Форумчанин написал(а):ИМХО, если в первый ИИ заложить три закона роботехники Айзека АЗИМОВА, они до поры до времени будут безопасными, пока путём логики не дойдут до их нарушения.
Современные програмные разработки ИИ как раз таки не основываются на обычной булевой логике (или true или false), они основываются на так называемой нечеткой логике (fuzzy logic), которая позволяет принимать решение на основе соответсвующих функций распределения понятий. К примеру, такая машина может ответить на вопрос молод ли человек 43 лет. Если обычная машина знает, что если возраст меньше 25, то молод, если нет - то нет, а у ИИ все не так просто, ее ответ будет носить более субъективный характер (т.е. у нее появляется собственная точка зрения, которая с помощью нейронных сетей может быть зафиксированна и даже под некоторым "авторитетным" влиянием изменена), причем другая такая же машина, с точно такой же прогрраммой даст, с большой вероятностью, другой ответ.ArchiCat написал(а):Думается, обход этих трех законов невозможен. Ибо это является логической блокировкой. Машина может думать только на основе логики. И ежели у нее эти установки присутствуют как программный ограничитель - снять самостоятельно она их не сможет. Дополнить там чем-нибудь, возможно, но не снять. Ну или дополнительная страховка - физическая энергонезависимая, рид онли память содержит эти три закона.
Это человек может действовать по принципу: если нельзя, но очень хочется - то можно. А машина - или true, или false. Все. На данный момент принципиальное ограничение любого ИИ - только ДВА состояния. Хотя опыты всякие идут, над третьим сотоянием, четвертым, одновременным и т.д. Но это пока теории. И в любом случае - см. про рид онли.![]()
Nemo написал(а):Современные програмные разработки ИИ как раз таки не основываются на обычной булевой логике (или true или false), они основываются на так называемой нечеткой логике (fuzzy logic), которая позволяет принимать решение на основе соответсвующих функций распределения понятий. К примеру, такая машина может ответить на вопрос молод ли человек 43 лет. Если обычная машина знает, что если возраст меньше 25, то молод, если нет - то нет, а у ИИ все не так просто, ее ответ будет носить более субъективный характер (т.е. у нее появляется собственная точка зрения, которая с помощью нейронных сетей может быть зафиксированна и даже под некоторым "авторитетным" влиянием изменена), причем другая такая же машина, с точно такой же прогрраммой даст, с большой вероятностью, другой ответ.
Функция распределения понятия вводится посредством авторитетных специалистов, к примеру, берут сотню художников и показывают им один и тот же цвет оптического спектра (с длиной волны l=555нм), около 45 человек скажут, что это зеленый, человек 20 скажут, что желтый, другие будут говорить желто-зеленый и т.д.ArchiCat написал(а):Не, это понятно. Я же и сказал - ДВА состояния (он и офф, в смысле электрических цепей), опыты над третьим и т.д. Так что ты только подтверждаешь мои слова.
А на счет "молод-ли человек" - на чем основывается ответ ИИ? Вводится, таскать, генератор случайных чисел? НА ЧЕМ основывается субъективность ответа каждой машины с одинаковой программой?
Так-то, я не занимался никогда ИИ, я просто размышляю, с точки зрения здравого смысла и каких-то принципиальных базовых знаний. Ибо тема мне интересна.![]()
Форумчанин написал(а):Вопрос, не дающий покоя писателям-фантастам и учёным: возможно ли создание ИИ, если да, то каким образом и пожалеет ли человечество о создании ИИ?
Nemo написал(а):В результате машина с вероятностью 45 % отреагирует на длинну волны l=555нм как на зеленый и при том запомнит это, и если надо будет спорить с другими, однако другая машина на длину волны l=560нм отреагирует как на желтый цвет, и если она каким-то образом более авторитетный источник (большее число художников сформировали понятие или более крутая функция распределения), то она может изменить точку зрения предыдущей машины. И в результате постоянных общений у нее складывается свой понятийный аппарат. На самом деле, что бы сформировать такой аппарат, нужно очень много работать. А дальше дело уже за восприятием мира и обучением, но за это уже отвечают т.н. нейронные сети.
Да нет же, не закладывается "что зеленый это 555", научитесь читать внимательно, с некоторой вероятностью + определенные условия эксперимента + с возможностью изменить точку зрения.ArchiCat написал(а):И что? Самообучение и есть... Просто собрали сотню и совместно порешали, какой цвет зеленый, а какой желтый. В итоге в машину закладывается, что 555 - это зеленый, а 560 - желтый. И сказали - а вот если тебе 100 раз скажут, что 555 - это желтый, то тогда называй желтым и 560, и 555. В общем, будут сидеть таки машины кучами и сами себя прокачивать.![]()
Вопрос-то изначально в другом был - может-ли ИИ обойти три закона...
Nemo написал(а):Да нет же, не закладывается "что зеленый это 555", научитесь читать внимательно, с некоторой вероятностью + определенные условия эксперимента + с возможностью изменить точку зрения.
ЗЫ:
Лично я ни про какие 3 закона не знаю, и когда писал свои посты обсуждал тему спец. логики ИИ.
Вероятность вместо четкого ответа закладывают для того, чтобы у машин не было догмы (да/нет). Ввиду этого возникает небывалая досели гибкость машинного выбора, и из-за этого же программа никогда не будет зацикливаться (зависать). Если два различных програмных модуля пытаются ответить на один вопрос, конфликта не возникнет никогда, т.к. плотности распределения вероятности ответа (как вам должно быть известно) являются функциями непрерывными {если конечно они не сформированы соот. дельта-функциями}. В сущности Вы придераетесь к мелочам. Я вам объяснил как работает нечеткая логика на самых простейших примерах. В современных машинах в принятии решения учавствуют сотни различных модулей, и процедура этого принятия настолько сложна, что даже эксперты не смогут четко сформулировать, что там происходит.ArchiCat написал(а):Ну и? Закладывать вероятность вместо четкого ответа, который заранее известен? Зачем?
Она не будет отвечать "не правильно", т.к. изменить мнение может, только под влиянием более авторитетной машины. Конечно возможен вариант, когда хитрые программисты сделают машине ложный авторитет, но если быть рассудительным, такого и в случаях "естественных интеллектов" полно.ArchiCat написал(а):И изменение точки зрения - тоже непонятно... Если под влиянием другой машины первая изменит свой ответ на известный вопрос, то она будет отвечать неправильно?
Nemo написал(а):ЗЫ: если вас действительно заинтересовала эта тема советую почитать Лотфи Заде (математик сформулировавший основы нечеткой логики).