Искусственный Интеллект (ИИ)

Radikal

Ословед
Вопрос, не дающий покоя писателям-фантастам и учёным: возможно ли создание ИИ, если да, то каким образом и пожалеет ли человечество о создании ИИ?
 
T

teerex

Когда количество компьютеров, объединенных в сеть приблизится к количеству нейронов в сетях человеческого мозга... появится новый разум.
Похоже на прогноз апокалипсиса.

ИИ может появится когда люди научат машину мыслить неупорядоченно (практически хаотично), интуитивно, но творчески.
Пока к этому никто не приблизился, есть только видимости и приближения к какой-нибудь одной черте мышления. При попытке соеденить эти приближения получается бред :)

Я такой возможности не отрицаю.

Первая угроза появления ИИ - у человечских мозгов появится конкурент.
 

Shell

Ословед
Форумчанин написал(а):
возможно ли создание ИИ, если да, то каким образом и пожалеет ли человечество о создании ИИ?
Только не путем разработки программы - будет столько багов, что получится не иск. интеллект, а иск. идиот, заикающийся и зависающий :D

Может биологи вырастят какой-нибудь супермозг, изменив гены. Или промоделируют работу человеческого мозга в сети из иск. нейронов.
 
T

teerex

Shell написал(а):
Только не путем разработки программы
Опыт уже был, приближали... Машинам давали иллюзию вариативности, машины сочиняли музыку, машины строили какие-то заключения... но при попытке сделать все характеристики мышления в комплексе получался
Shell написал(а):
иск. идиот, заикающийся и зависающий :D


Shell написал(а):
Может биологи вырастят какой-нибудь супермозг, изменив гены. Или промоделируют работу человеческого мозга в сети из иск. нейронов.
скорее так и будет. Позаимствовать у природы релаьнее.
 
A

ArchiCat

Суть в том, что мозг - до сих пор загадка самая первая. Бехтеревы нервно курят, даже постоянно ковыряясь в мозгах. Наблюдая работу мозга, яйцеголовые вообще поражаются, как при такой кажущейся хаотичности импульсов в нейронах человек вообще может мыслить логично. Революция, затеянная роботами, на данный момент невозможна, ибо ЛЮБОЙ ИИ мыслит ТОЛЬКО в пределах логики, заложенной программно. Даже "самообучающийся". Ну не может он выйти за рамки установок, данных изначально. А изначально даны даже не те самые три закона, до них еще далеко, а банальные бытовые понятия, на уровне 1-2 годовалого ребенка максимум. И ни симфонии, ни стихов сам по себе ИИ создать не может. Может только оперировать словарем и законами построения слога, рифмы и т.д., ОПЯТЬ ЖЕ - в пределах логики создателя программы. Что уж говорить про выводы Вики, из "Я, робот". Нереально.
Балин, писать много. Готов с кем угодно на эту тему посидеть за пивом. Ибо это - реальная и ежедневная победа человека над роботом. :)
 

Radikal

Ословед
ИМХО, если в первый ИИ заложить три закона роботехники Айзека АЗИМОВА, они до поры до времени будут безопасными, пока путём логики не дойдут до их нарушения.
 
A

ArchiCat

Форумчанин написал(а):
ИМХО, если в первый ИИ заложить три закона роботехники Айзека АЗИМОВА, они до поры до времени будут безопасными, пока путём логики не дойдут до их нарушения.

Думается, обход этих трех законов невозможен. Ибо это является логической блокировкой. Машина может думать только на основе логики. И ежели у нее эти установки присутствуют как программный ограничитель - снять самостоятельно она их не сможет. Дополнить там чем-нибудь, возможно, но не снять. Ну или дополнительная страховка - физическая энергонезависимая, рид онли память содержит эти три закона.
Это человек может действовать по принципу: если нельзя, но очень хочется - то можно. А машина - или true, или false. Все. На данный момент принципиальное ограничение любого ИИ - только ДВА состояния. Хотя опыты всякие идут, над третьим сотоянием, четвертым, одновременным и т.д. Но это пока теории. И в любом случае - см. про рид онли. :)
 
A

ArchiCat

Кстати, есть еще одна фишка, про которую мало-кто думает. Что считать ИИ? Код? Или, к примеру, отдельно выращенный мозг (в идеале человеческий. а так - бараний, обезьяний и т.д), от которого при рождении отключают ВСЕ, допустим, человеческое, и подключают (про сопряжения и интерфейсы сейчас не говорим) чисто технику - видеокамеры, микрофоны, манипуляторы, колеса и прочее? И боль он не почувствует, ибо мозг нечувствителен к боли, а это, в свою очередь, наложит отпечаток на психику (?)...
В этом случае мозг опознает и будет работать с теми устройствами, которые приданы при рождении (создании), и возможностей у него технических/механических будет больше. Можно даже к интернету подключить. Только кто и как его будет обучать логиниться, например, и по порносайтам лазить? Это что получится? Готовый киборг? И что с ним делать? Поставить на завод на конвейер? Развиваться будет в пределах конвейера. Отдать в спецшколу с углубленным изучением чего-нибудь? Развиваться будет уже лучше. Я считаю, на сегодня возможен только такой ИИ, который может обойти три закона.
 

Radikal

Ословед
ИИ нужно считать любой неприродный вид интеллекта (позитронный мозг :) и тд) ИМХО, искусственно выращенный мозг является естественным интеллектом
 
N

Nemo

ArchiCat написал(а):
Думается, обход этих трех законов невозможен. Ибо это является логической блокировкой. Машина может думать только на основе логики. И ежели у нее эти установки присутствуют как программный ограничитель - снять самостоятельно она их не сможет. Дополнить там чем-нибудь, возможно, но не снять. Ну или дополнительная страховка - физическая энергонезависимая, рид онли память содержит эти три закона.
Это человек может действовать по принципу: если нельзя, но очень хочется - то можно. А машина - или true, или false. Все. На данный момент принципиальное ограничение любого ИИ - только ДВА состояния. Хотя опыты всякие идут, над третьим сотоянием, четвертым, одновременным и т.д. Но это пока теории. И в любом случае - см. про рид онли. :)
Современные програмные разработки ИИ как раз таки не основываются на обычной булевой логике (или true или false), они основываются на так называемой нечеткой логике (fuzzy logic), которая позволяет принимать решение на основе соответсвующих функций распределения понятий. К примеру, такая машина может ответить на вопрос молод ли человек 43 лет. Если обычная машина знает, что если возраст меньше 25, то молод, если нет - то нет, а у ИИ все не так просто, ее ответ будет носить более субъективный характер (т.е. у нее появляется собственная точка зрения, которая с помощью нейронных сетей может быть зафиксированна и даже под некоторым "авторитетным" влиянием изменена), причем другая такая же машина, с точно такой же прогрраммой даст, с большой вероятностью, другой ответ.
 
A

ArchiCat

Nemo написал(а):
Современные програмные разработки ИИ как раз таки не основываются на обычной булевой логике (или true или false), они основываются на так называемой нечеткой логике (fuzzy logic), которая позволяет принимать решение на основе соответсвующих функций распределения понятий. К примеру, такая машина может ответить на вопрос молод ли человек 43 лет. Если обычная машина знает, что если возраст меньше 25, то молод, если нет - то нет, а у ИИ все не так просто, ее ответ будет носить более субъективный характер (т.е. у нее появляется собственная точка зрения, которая с помощью нейронных сетей может быть зафиксированна и даже под некоторым "авторитетным" влиянием изменена), причем другая такая же машина, с точно такой же прогрраммой даст, с большой вероятностью, другой ответ.

Не, это понятно. Я же и сказал - ДВА состояния (он и офф, в смысле электрических цепей), опыты над третьим и т.д. Так что ты только подтверждаешь мои слова.
А на счет "молод-ли человек" - на чем основывается ответ ИИ? Вводится, таскать, генератор случайных чисел? НА ЧЕМ основывается субъективность ответа каждой машины с одинаковой программой?
Так-то, я не занимался никогда ИИ, я просто размышляю, с точки зрения здравого смысла и каких-то принципиальных базовых знаний. Ибо тема мне интересна. :)
 
N

Nemo

ArchiCat написал(а):
Не, это понятно. Я же и сказал - ДВА состояния (он и офф, в смысле электрических цепей), опыты над третьим и т.д. Так что ты только подтверждаешь мои слова.
А на счет "молод-ли человек" - на чем основывается ответ ИИ? Вводится, таскать, генератор случайных чисел? НА ЧЕМ основывается субъективность ответа каждой машины с одинаковой программой?
Так-то, я не занимался никогда ИИ, я просто размышляю, с точки зрения здравого смысла и каких-то принципиальных базовых знаний. Ибо тема мне интересна. :)
Функция распределения понятия вводится посредством авторитетных специалистов, к примеру, берут сотню художников и показывают им один и тот же цвет оптического спектра (с длиной волны l=555нм), около 45 человек скажут, что это зеленый, человек 20 скажут, что желтый, другие будут говорить желто-зеленый и т.д.
В результате машина с вероятностью 45 % отреагирует на длинну волны l=555нм как на зеленый и при том запомнит это, и если надо будет спорить с другими, однако другая машина на длину волны l=560нм отреагирует как на желтый цвет, и если она каким-то образом более авторитетный источник (большее число художников сформировали понятие или более крутая функция распределения), то она может изменить точку зрения предыдущей машины. И в результате постоянных общений у нее складывается свой понятийный аппарат. На самом деле, что бы сформировать такой аппарат, нужно очень много работать. А дальше дело уже за восприятием мира и обучением, но за это уже отвечают т.н. нейронные сети.
 
C

CopperSword

Форумчанин написал(а):
Вопрос, не дающий покоя писателям-фантастам и учёным: возможно ли создание ИИ, если да, то каким образом и пожалеет ли человечество о создании ИИ?

Я думаю, что он будет создан и часть человечества естественно пожалеет о том что он есть... Это будет такой единый центр, большой компьютер, который будет контролировать все процессы происходящие на земле...
 
A

ArchiCat

Nemo написал(а):
В результате машина с вероятностью 45 % отреагирует на длинну волны l=555нм как на зеленый и при том запомнит это, и если надо будет спорить с другими, однако другая машина на длину волны l=560нм отреагирует как на желтый цвет, и если она каким-то образом более авторитетный источник (большее число художников сформировали понятие или более крутая функция распределения), то она может изменить точку зрения предыдущей машины. И в результате постоянных общений у нее складывается свой понятийный аппарат. На самом деле, что бы сформировать такой аппарат, нужно очень много работать. А дальше дело уже за восприятием мира и обучением, но за это уже отвечают т.н. нейронные сети.

И что? Самообучение и есть... Просто собрали сотню и совместно порешали, какой цвет зеленый, а какой желтый. В итоге в машину закладывается, что 555 - это зеленый, а 560 - желтый. И сказали - а вот если тебе 100 раз скажут, что 555 - это желтый, то тогда называй желтым и 560, и 555. В общем, будут сидеть таки машины кучами и сами себя прокачивать. :)

Вопрос-то изначально в другом был - может-ли ИИ обойти три закона...
 
N

Nemo

ArchiCat написал(а):
И что? Самообучение и есть... Просто собрали сотню и совместно порешали, какой цвет зеленый, а какой желтый. В итоге в машину закладывается, что 555 - это зеленый, а 560 - желтый. И сказали - а вот если тебе 100 раз скажут, что 555 - это желтый, то тогда называй желтым и 560, и 555. В общем, будут сидеть таки машины кучами и сами себя прокачивать. :)

Вопрос-то изначально в другом был - может-ли ИИ обойти три закона...
Да нет же, не закладывается "что зеленый это 555", научитесь читать внимательно, с некоторой вероятностью + определенные условия эксперимента + с возможностью изменить точку зрения.

ЗЫ:
Лично я ни про какие 3 закона не знаю, и когда писал свои посты обсуждал тему спец. логики ИИ.
 

cz

Ословед
считаю что с современой концепцией ЭВМ реализовать ИИ нельзя.... Экспертные системы считаю мёртвой ветвью развитя ИИ.
 
A

ArchiCat

Nemo написал(а):
Да нет же, не закладывается "что зеленый это 555", научитесь читать внимательно, с некоторой вероятностью + определенные условия эксперимента + с возможностью изменить точку зрения.

ЗЫ:
Лично я ни про какие 3 закона не знаю, и когда писал свои посты обсуждал тему спец. логики ИИ.

Ну и? Закладывать вероятность вместо четкого ответа, который заранее известен? Зачем?
И изменение точки зрения - тоже непонятно... Если под влиянием другой машины первая изменит свой ответ на известный вопрос, то она будет отвечать неправильно?
 

MV_TOBletka

Ословед
Искуственный Интелект не возможен т.к. это заведомо будет программа заложенная кем-то а интелект индивидуален, что-бы теоретически создать ИИ надо что-бы программа писала программу и эта программа пишет другую программу по тому же принципу, вернемся назад первую программу напишет кто то т.е ИИ не возможен теоритически следовательно и физически.
 
N

Nemo

ArchiCat написал(а):
Ну и? Закладывать вероятность вместо четкого ответа, который заранее известен? Зачем?
Вероятность вместо четкого ответа закладывают для того, чтобы у машин не было догмы (да/нет). Ввиду этого возникает небывалая досели гибкость машинного выбора, и из-за этого же программа никогда не будет зацикливаться (зависать). Если два различных програмных модуля пытаются ответить на один вопрос, конфликта не возникнет никогда, т.к. плотности распределения вероятности ответа (как вам должно быть известно) являются функциями непрерывными {если конечно они не сформированы соот. дельта-функциями}. В сущности Вы придераетесь к мелочам. Я вам объяснил как работает нечеткая логика на самых простейших примерах. В современных машинах в принятии решения учавствуют сотни различных модулей, и процедура этого принятия настолько сложна, что даже эксперты не смогут четко сформулировать, что там происходит.
ArchiCat написал(а):
И изменение точки зрения - тоже непонятно... Если под влиянием другой машины первая изменит свой ответ на известный вопрос, то она будет отвечать неправильно?
Она не будет отвечать "не правильно", т.к. изменить мнение может, только под влиянием более авторитетной машины. Конечно возможен вариант, когда хитрые программисты сделают машине ложный авторитет, но если быть рассудительным, такого и в случаях "естественных интеллектов" полно.

ЗЫ: если вас действительно заинтересовала эта тема советую почитать Лотфи Заде (математик сформулировавший основы нечеткой логики).
 
A

ArchiCat

Nemo написал(а):
ЗЫ: если вас действительно заинтересовала эта тема советую почитать Лотфи Заде (математик сформулировавший основы нечеткой логики).

Ок, посмотрю... А к мелочам я неосознанно, может быть, придираюсь, не специально. Ибо, говорю же - тема мне вообще незнакома, просто интересна, вот и полезли размышления...
 
Сверху