Искусственный Интеллект (ИИ)

Тема в разделе "Точные науки", создана пользователем Radikal, 31 май 2006.

  1. Radikal

    Radikal Ословед

    Репутация:
    265
    Radikal, 31 май 2006
    Вопрос, не дающий покоя писателям-фантастам и учёным: возможно ли создание ИИ, если да, то каким образом и пожалеет ли человечество о создании ИИ?
     
    #1
  2. teerex

    teerex Guest

    Репутация:
    0
    teerex, 31 май 2006
    Похоже на прогноз апокалипсиса.

    ИИ может появится когда люди научат машину мыслить неупорядоченно (практически хаотично), интуитивно, но творчески.
    Пока к этому никто не приблизился, есть только видимости и приближения к какой-нибудь одной черте мышления. При попытке соеденить эти приближения получается бред :)

    Я такой возможности не отрицаю.

    Первая угроза появления ИИ - у человечских мозгов появится конкурент.
     
    #2
  3. Shell

    Shell Ословед

    Репутация:
    15.127
    Shell, 31 май 2006
    Только не путем разработки программы - будет столько багов, что получится не иск. интеллект, а иск. идиот, заикающийся и зависающий :D

    Может биологи вырастят какой-нибудь супермозг, изменив гены. Или промоделируют работу человеческого мозга в сети из иск. нейронов.
     
    #3
  4. teerex

    teerex Guest

    Репутация:
    0
    teerex, 31 май 2006
    Опыт уже был, приближали... Машинам давали иллюзию вариативности, машины сочиняли музыку, машины строили какие-то заключения... но при попытке сделать все характеристики мышления в комплексе получался

    скорее так и будет. Позаимствовать у природы релаьнее.
     
    #4
  5. ArchiCat

    ArchiCat Guest

    Репутация:
    0
    ArchiCat, 1 июн 2006
    Суть в том, что мозг - до сих пор загадка самая первая. Бехтеревы нервно курят, даже постоянно ковыряясь в мозгах. Наблюдая работу мозга, яйцеголовые вообще поражаются, как при такой кажущейся хаотичности импульсов в нейронах человек вообще может мыслить логично. Революция, затеянная роботами, на данный момент невозможна, ибо ЛЮБОЙ ИИ мыслит ТОЛЬКО в пределах логики, заложенной программно. Даже "самообучающийся". Ну не может он выйти за рамки установок, данных изначально. А изначально даны даже не те самые три закона, до них еще далеко, а банальные бытовые понятия, на уровне 1-2 годовалого ребенка максимум. И ни симфонии, ни стихов сам по себе ИИ создать не может. Может только оперировать словарем и законами построения слога, рифмы и т.д., ОПЯТЬ ЖЕ - в пределах логики создателя программы. Что уж говорить про выводы Вики, из "Я, робот". Нереально.
    Балин, писать много. Готов с кем угодно на эту тему посидеть за пивом. Ибо это - реальная и ежедневная победа человека над роботом. :)
     
    #5
  6. Radikal

    Radikal Ословед

    Репутация:
    265
    Radikal, 1 июн 2006
    ИМХО, если в первый ИИ заложить три закона роботехники Айзека АЗИМОВА, они до поры до времени будут безопасными, пока путём логики не дойдут до их нарушения.
     
    #6
  7. ArchiCat

    ArchiCat Guest

    Репутация:
    0
    ArchiCat, 1 июн 2006
    Думается, обход этих трех законов невозможен. Ибо это является логической блокировкой. Машина может думать только на основе логики. И ежели у нее эти установки присутствуют как программный ограничитель - снять самостоятельно она их не сможет. Дополнить там чем-нибудь, возможно, но не снять. Ну или дополнительная страховка - физическая энергонезависимая, рид онли память содержит эти три закона.
    Это человек может действовать по принципу: если нельзя, но очень хочется - то можно. А машина - или true, или false. Все. На данный момент принципиальное ограничение любого ИИ - только ДВА состояния. Хотя опыты всякие идут, над третьим сотоянием, четвертым, одновременным и т.д. Но это пока теории. И в любом случае - см. про рид онли. :)
     
    #7
  8. ArchiCat

    ArchiCat Guest

    Репутация:
    0
    ArchiCat, 1 июн 2006
    Кстати, есть еще одна фишка, про которую мало-кто думает. Что считать ИИ? Код? Или, к примеру, отдельно выращенный мозг (в идеале человеческий. а так - бараний, обезьяний и т.д), от которого при рождении отключают ВСЕ, допустим, человеческое, и подключают (про сопряжения и интерфейсы сейчас не говорим) чисто технику - видеокамеры, микрофоны, манипуляторы, колеса и прочее? И боль он не почувствует, ибо мозг нечувствителен к боли, а это, в свою очередь, наложит отпечаток на психику (?)...
    В этом случае мозг опознает и будет работать с теми устройствами, которые приданы при рождении (создании), и возможностей у него технических/механических будет больше. Можно даже к интернету подключить. Только кто и как его будет обучать логиниться, например, и по порносайтам лазить? Это что получится? Готовый киборг? И что с ним делать? Поставить на завод на конвейер? Развиваться будет в пределах конвейера. Отдать в спецшколу с углубленным изучением чего-нибудь? Развиваться будет уже лучше. Я считаю, на сегодня возможен только такой ИИ, который может обойти три закона.
     
    #8
  9. Radikal

    Radikal Ословед

    Репутация:
    265
    Radikal, 1 июн 2006
    ИИ нужно считать любой неприродный вид интеллекта (позитронный мозг :) и тд) ИМХО, искусственно выращенный мозг является естественным интеллектом
     
    #9
  10. Nemo

    Nemo Guest

    Репутация:
    0
    Nemo, 3 июн 2006
    Современные програмные разработки ИИ как раз таки не основываются на обычной булевой логике (или true или false), они основываются на так называемой нечеткой логике (fuzzy logic), которая позволяет принимать решение на основе соответсвующих функций распределения понятий. К примеру, такая машина может ответить на вопрос молод ли человек 43 лет. Если обычная машина знает, что если возраст меньше 25, то молод, если нет - то нет, а у ИИ все не так просто, ее ответ будет носить более субъективный характер (т.е. у нее появляется собственная точка зрения, которая с помощью нейронных сетей может быть зафиксированна и даже под некоторым "авторитетным" влиянием изменена), причем другая такая же машина, с точно такой же прогрраммой даст, с большой вероятностью, другой ответ.
     
    #10
  11. ArchiCat

    ArchiCat Guest

    Репутация:
    0
    ArchiCat, 3 июн 2006
    Не, это понятно. Я же и сказал - ДВА состояния (он и офф, в смысле электрических цепей), опыты над третьим и т.д. Так что ты только подтверждаешь мои слова.
    А на счет "молод-ли человек" - на чем основывается ответ ИИ? Вводится, таскать, генератор случайных чисел? НА ЧЕМ основывается субъективность ответа каждой машины с одинаковой программой?
    Так-то, я не занимался никогда ИИ, я просто размышляю, с точки зрения здравого смысла и каких-то принципиальных базовых знаний. Ибо тема мне интересна. :)
     
    #11
  12. Nemo

    Nemo Guest

    Репутация:
    0
    Nemo, 3 июн 2006
    Функция распределения понятия вводится посредством авторитетных специалистов, к примеру, берут сотню художников и показывают им один и тот же цвет оптического спектра (с длиной волны l=555нм), около 45 человек скажут, что это зеленый, человек 20 скажут, что желтый, другие будут говорить желто-зеленый и т.д.
    В результате машина с вероятностью 45 % отреагирует на длинну волны l=555нм как на зеленый и при том запомнит это, и если надо будет спорить с другими, однако другая машина на длину волны l=560нм отреагирует как на желтый цвет, и если она каким-то образом более авторитетный источник (большее число художников сформировали понятие или более крутая функция распределения), то она может изменить точку зрения предыдущей машины. И в результате постоянных общений у нее складывается свой понятийный аппарат. На самом деле, что бы сформировать такой аппарат, нужно очень много работать. А дальше дело уже за восприятием мира и обучением, но за это уже отвечают т.н. нейронные сети.
     
    #12
  13. CopperSword

    CopperSword Guest

    Репутация:
    0
    CopperSword, 3 июн 2006
    Я думаю, что он будет создан и часть человечества естественно пожалеет о том что он есть... Это будет такой единый центр, большой компьютер, который будет контролировать все процессы происходящие на земле...
     
    #13
  14. ArchiCat

    ArchiCat Guest

    Репутация:
    0
    ArchiCat, 3 июн 2006
    И что? Самообучение и есть... Просто собрали сотню и совместно порешали, какой цвет зеленый, а какой желтый. В итоге в машину закладывается, что 555 - это зеленый, а 560 - желтый. И сказали - а вот если тебе 100 раз скажут, что 555 - это желтый, то тогда называй желтым и 560, и 555. В общем, будут сидеть таки машины кучами и сами себя прокачивать. :)

    Вопрос-то изначально в другом был - может-ли ИИ обойти три закона...
     
    #14
  15. Nemo

    Nemo Guest

    Репутация:
    0
    Nemo, 3 июн 2006
    Да нет же, не закладывается "что зеленый это 555", научитесь читать внимательно, с некоторой вероятностью + определенные условия эксперимента + с возможностью изменить точку зрения.

    ЗЫ:
    Лично я ни про какие 3 закона не знаю, и когда писал свои посты обсуждал тему спец. логики ИИ.
     
    #15
  16. cz

    cz Ословед

    Репутация:
    1.620
    cz, 3 июн 2006
    считаю что с современой концепцией ЭВМ реализовать ИИ нельзя.... Экспертные системы считаю мёртвой ветвью развитя ИИ.
     
    #16
  17. ArchiCat

    ArchiCat Guest

    Репутация:
    0
    ArchiCat, 4 июн 2006
    Ну и? Закладывать вероятность вместо четкого ответа, который заранее известен? Зачем?
    И изменение точки зрения - тоже непонятно... Если под влиянием другой машины первая изменит свой ответ на известный вопрос, то она будет отвечать неправильно?
     
    #17
  18. MV_TOBletka

    MV_TOBletka Ословед

    Репутация:
    1.056
    MV_TOBletka, 4 июн 2006
    Искуственный Интелект не возможен т.к. это заведомо будет программа заложенная кем-то а интелект индивидуален, что-бы теоретически создать ИИ надо что-бы программа писала программу и эта программа пишет другую программу по тому же принципу, вернемся назад первую программу напишет кто то т.е ИИ не возможен теоритически следовательно и физически.
     
    #18
  19. Nemo

    Nemo Guest

    Репутация:
    0
    Nemo, 4 июн 2006
    Вероятность вместо четкого ответа закладывают для того, чтобы у машин не было догмы (да/нет). Ввиду этого возникает небывалая досели гибкость машинного выбора, и из-за этого же программа никогда не будет зацикливаться (зависать). Если два различных програмных модуля пытаются ответить на один вопрос, конфликта не возникнет никогда, т.к. плотности распределения вероятности ответа (как вам должно быть известно) являются функциями непрерывными {если конечно они не сформированы соот. дельта-функциями}. В сущности Вы придераетесь к мелочам. Я вам объяснил как работает нечеткая логика на самых простейших примерах. В современных машинах в принятии решения учавствуют сотни различных модулей, и процедура этого принятия настолько сложна, что даже эксперты не смогут четко сформулировать, что там происходит.
    Она не будет отвечать "не правильно", т.к. изменить мнение может, только под влиянием более авторитетной машины. Конечно возможен вариант, когда хитрые программисты сделают машине ложный авторитет, но если быть рассудительным, такого и в случаях "естественных интеллектов" полно.

    ЗЫ: если вас действительно заинтересовала эта тема советую почитать Лотфи Заде (математик сформулировавший основы нечеткой логики).
     
    #19
  20. ArchiCat

    ArchiCat Guest

    Репутация:
    0
    ArchiCat, 5 июн 2006
    Ок, посмотрю... А к мелочам я неосознанно, может быть, придираюсь, не специально. Ибо, говорю же - тема мне вообще незнакома, просто интересна, вот и полезли размышления...
     
    #20
Загрузка...