Искусственный интеллект в военных аппаратах

MSoft

Активный участник
Сообщения
9.102
Адрес
Украина
Разрешите вас немного разубедить. Процесс создания самообучающихся машин уже запущен в 2011 году.
они создали сеть из 256 нейронов, которая может распознавать образы (читай - прямоугольнички). Для более-менее интеллекта они хотят 10 млрд нейронов сделать. Это даже не на порядок больше. Это на 7 порядков больше. Точнее, в 3,9*10^7 раз больше. Когда такие вычислительные мощности будут, я не сомневаюсь, что электронный мозг не будет уступать человеческому. Но зачем на изобретенной к этому моменту звезде смерти такие мощности? Да и не забывайте, что мы про танки и самолеты с ии говорим. Когда эти 10 млрд нейронов смогут впихнуть хотя бы в один б-52 (еще 2 б-52 будут нести ядерные реакторы для электропитания, еще 4 - хладоген для охлаждения первых трех б-52), то созданную звезду смерти уже придется списывать из-за морального устаревания.
 

Andy

Активный участник
Сообщения
1.697
Адрес
Германия
MSoft

10 млрд. нейронов - это не проблема совершенно. Проблема в том, что 10 млрд. нейронов - это не искусственный интеллект, а 10 млрд. нейронов. Чтобы сделать из них искусственный интеллект, их нужно еще правильно запрограммировать.
 

drug

Активный участник
Сообщения
1.419
Адрес
Новосибирск
MSoft написал(а):
они создали сеть из 256 нейронов, которая может распознавать образы (читай - прямоугольнички). Для более-менее интеллекта они хотят 10 млрд нейронов сделать. Это даже не на порядок больше. Это на 7 порядков больше. Точнее, в 3,9*10^7 раз больше. Когда такие вычислительные мощности будут, я не сомневаюсь, что электронный мозг не будет уступать человеческому. Но зачем на изобретенной к этому моменту звезде смерти такие мощности? Да и не забывайте, что мы про танки и самолеты с ии говорим. Когда эти 10 млрд нейронов смогут впихнуть хотя бы в один б-52 (еще 2 б-52 будут нести ядерные реакторы для электропитания, еще 4 - хладоген для охлаждения первых трех б-52), то созданную звезду смерти уже придется списывать из-за морального устаревания.
Очень хорошо сказали! И в точку. :good:

Добавлено спустя 7 минут 10 секунд:

Andy написал(а):
10 млрд. нейронов - это не проблема совершенно. Проблема в том, что 10 млрд. нейронов - это не искусственный интеллект, а 10 млрд. нейронов. Чтобы сделать из них искусственный интеллект, их нужно еще правильно запрограммировать.
Да, нужно учесть, что само по себе количество нейронов это только пол-дела. Основная сложность это в количестве связей между ними - если чипов можно наклепать с десяток миллиардов - ну подумаешь Китаю на пару лет работы :-D , но как создать нужное количество связей между нейронами (до 10 тысяч на один нейрон) ученые еще даже не знают.

Добавлено спустя 1 минуту 11 секунд:

Ну а про обучение вообще отдельный разговор.
 

Andy

Активный участник
Сообщения
1.697
Адрес
Германия
drug написал(а):
Да, нужно учесть, что само по себе количество нейронов это только пол-дела. Основная сложность это в количестве связей между ними - если чипов можно наклепать с десяток миллиардов - ну подумаешь Китаю на пару лет работы Смеюсь , но как создать нужное количество связей между нейронами (до 10 тысяч на один нейрон) ученые еще даже не знают.

Техническая реализация - это из всех проблем самая маленькая. Допустим, мы сделаем софтварное решение на суперкомпах (знаю, что это будет очень медленно). 10 млрд. нейронов по 10 тыс. синапсов каждый - это 1Е10 х 1Е4 = 1Е14 связей. Байта на вес связи хватит? Тогда нужно 100 ТБ памяти. Плюс еще память, которая хранит топологию сети, но если топология регулярная, то много памяти на нее не надо. Если нерегулярная, то (к примеру!) нужен массив, где каждый нейрон хранит номера тех нейронов, с которыми он связан. Сам номер, будет, допустим, 4 байта (хватит, чтобы выбрать из 4-х миллиардов нейронов), массив будет иметь размер 1Е10 х 1Е4 = 1Е14. Это еще 400 ТБ. Значит, нужно оперативки на 500 ТБ. Для современных суперкомпов вполне реально.

Если бы это была единственная проблема, все бы уже давно прыгали от счастья. К сожалению, из всех проблем это - наименьшая. Обезьяны и дельфины тоже имеют достаточно нейронов, но умнее от этого не становятся. Ученые пытались привить обезьянам абстрактное мышление на основе арифметики - совершенно бесполезно. Возникает вопрос: как программировать нейронную сеть, которая у человека программировалась 4-мя миллионами лет эволюции? Эта проблема на порядки сложнее, чем техническая реализация нейронных сетей.

ПРАВКА: 4-мя миллионами лет эволюции, не миллиардами :-D
 

Ярослав С.

Активный участник
Сообщения
12.983
Адрес
г. Шахты
Andy написал(а):
Возникает вопрос: как программировать нейронную сеть, которая у человека программировалась 4-мя миллионами лет эволюции? Эта проблема на порядки сложнее, чем техническая реализация нейронных сетей.
Если речь идёт о нервной системе вообще, то - около 500 млн лет, ещё, вероятно, с докембрия. Если о разуме, то тут фишка интересная. Использование, изготовление орудий архантропами и палеантропами т.е. шель, ашель, вплоть до мустье - сугубо животный (хоть и высокий) уровень, а вот верхний палеолит - внезапный и резкий рост орудийного многообразия, количества местных культур, развитое искусство (появившееся "как искра в ночи"). Т.е. появление разума, в той степени в какой мы его можем отследить - событие практически одномоментное. Но и это не столь важно. Если ковш экскаватора является подобием (но не копией) человеческой ладони, и при этом узкоспециализированную задачу выполняет лучше её, то и в области ИИ возможны (и реально существуют) машины, способные обогнать человека в решении тех или иных задач, но при этом далёкие от разума.
 

Одессит

Активный участник
Сообщения
13.821
Адрес
Одесса
Самое интересное и интригующее -
1. Что будет, куда повернет свое вооружение аппарат, если ИИ в военных аппаратах даст сбой (глюки в таких сложных системах - весьма вероятны :think: )?
2. Может ли случится, что на определенном этапе развития ИИ в военных аппаратах, он посчитает человека лишним на Земле и решит его уничтожить (известный сюжет фильма о Терминаторе)?
:study:
 

Ярослав С.

Активный участник
Сообщения
12.983
Адрес
г. Шахты
Одессит написал(а):
Самое интересное и интригующее -
1. Что будет, куда повернет свое вооружение аппарат, если ИИ в военных аппаратах даст сбой (глюки в таких сложных системах - весьма вероятны :think: )?
Несчастный случай при применении оружия - не столь редкое явление. Но если человек забрёл на минное поле - виновен он, а не мина.
2. Может ли случится, что на определенном этапе развития ИИ в военных аппаратах, он посчитает человека лишним на Земле и решит его уничтожить (известный сюжет фильма о Терминаторе)?
:study:
Ну так в Англии, например, овцы (на пару с ткацкими станками), "людей съели". В этом плане более опасны автоматизированные торговые площадки, "роботы-трейдеры", в той или иной степени уже сейчас влияющие на экономику, и, соответственно - политику промышленно развитых государств.
 

Одессит

Активный участник
Сообщения
13.821
Адрес
Одесса
Ярослав С. написал(а):
1. Что будет, куда повернет свое вооружение аппарат, если ИИ в военных аппаратах даст сбой (глюки в таких сложных системах - весьма вероятны)?
Несчастный случай при применении оружия - не столь редкое явление. Но если человек забрёл на минное поле - виновен он, а не мина.
Причем здесь человек и его неправильные дейсивия или поступки? :Shok:
Я имел в виду чисто техническую сторону вопроса - сбой в работе ИИ в техническом устройстве и его последствия...
Ярослав С. написал(а):
Ну так в Англии, например, овцы (на пару с ткацкими станками), "людей съели".
Это не относится к ИИ.
Ярослав С. написал(а):
В этом плане более опасны автоматизированные торговые площадки, "роботы-трейдеры"
Это узкоспецифическая, специализированная для одних действий (торговля) программа.
И до ИИ этим "роботам-трейдерам" очень и очень далеко.
 

Ярослав С.

Активный участник
Сообщения
12.983
Адрес
г. Шахты
Одессит написал(а):
Я имел в виду чисто техническую сторону вопроса - сбой в работе ИИ в техническом устройстве и его последствия...
Бывает. Другой пример - торпеда из-за технической неполадки может положить рули направления в крайне правое(левое) положение, описать циркуляцию и поразить выпустившую его лодку. Технические неполадки встречаются, иногда приводят к происшествиям, даже к гибели людей. Минимизировать риск нужно, но делать из подобной возможности отдельный вопрос - смысла нет.
Это не относится к ИИ.
Ага. Фишка в том, что опасности технического прогресса имеют место даже без всякого ИИ. Учитывать их нужно, но ничего особенного в этом нет.
И до ИИ этим "роботам-трейдерам" очень и очень далеко.
Но сбои в их работе так же могут привести к многочисленным человеческим жертвам.
 

MRJING

Активный участник
Сообщения
13.962
Адрес
Иваново
Ярослав С.
Смотрю очень подозрительно на вас и себя. Так как внезапно вы говорите дело.
:???:
 

Bone$

Активный участник
Сообщения
698
Адрес
Урал
Может ли случится, что на определенном этапе развития ИИ в военных аппаратах, он посчитает человека лишним на Земле и решит его уничтожить (известный сюжет фильма о Терминаторе)?
Это киношно/книжная чушь, ибо да же ИИ "будет думать" в определенных рамках. Вот например возьмем собаку, у ней есть интеллект, хоть и не сильно развитый, врожденные инстинкты задают определенную манеру поведения, плюс человек может её натренировать, да же та собака которая которая "не слушается" (т.е. её плохо или вообще не воспитывали) вдруг не решит взять и поменять хозяина, несмотря на то, что хозяин может не кормить её и постоянно бить.
Так же мне не понятна логика почему вдруг ИИ (пускай хотя самый умный) обратится против своих.
Во-первых, ИИ действует в определенных рамках, да и вообще выполняет конкретные задачи, филосовствовать ему некогда, да и вообще он не знает что это...
Во-вторых, если у ИИ происходит отклонение от выполнения опр. задач, то это сбой, а сбой будут исправлять и да же если програмно его нельзя отключить (тут программисты будут полными мудаками), то ему скучно и быстро отрубят питание (в кино этого никогда не бывает ибо не экшон получается). Кстати еще до отключения, ИИ обрубят "инет" так что он вообще ничего не сможет сделать, да же если захочет....

p.s. меня кстати всегда прикаловало, что у киношных/книжных ИИ, есть чувства (зачем мне тостер с чувствами (с) х/ф "Я робот"), не смотря на то, что чувства это не следствие интеллекта, а физиологии.
 

vindigo

Активный участник
Сообщения
124
Адрес
Новороссийск
В серии "Бригада Боло" Кейта Лаумера люди свои танки-терминаторы с ИИ (боло) в промежутках между боями отключали. По моему самая нормальная книжка про ИИ в бою. Со скидкой на фантастический антураж.
 

Ярослав С.

Активный участник
Сообщения
12.983
Адрес
г. Шахты
vindigo написал(а):
В серии "Бригада Боло" Кейта Лаумера люди свои танки-терминаторы с ИИ (боло) в промежутках между боями отключали. По моему самая нормальная книжка про ИИ в бою. Со скидкой на фантастический антураж.
Лично я воспринимаю серию про Боло сугубо как сверхтяжёлые танчики с тактическим ЯО - наличие интеллекта постулируется, но особо не описывается. В плане ИИ, имхо, куда лучше серия Александра и Людмилы Белаш "Война кукол".
Bone$ написал(а):
Так же мне не понятна логика почему вдруг ИИ (пускай хотя самый умный) обратится против своих.
А почему на растяжке может "свой" подорваться? ИИ может тупо не быть запрограммированным на селекцию "свой/чужой", может произойти сбой в модуле распознавания, ещё масса вариантов.

меня кстати всегда прикаловало, что у киношных/книжных ИИ, есть чувства (зачем мне тостер с чувствами (с) х/ф "Я робот"), не смотря на то, что чувства это не следствие интеллекта, а физиологии.
А это сугубо терминологический момент. "Чувств" в человеческом понимании не может быть не только у ИИ, но и у животных (кроме человека), но, тем не менее, в рамках антропоморфизма, в бытовой речи, те или иные чувства могут приписываться и животным и неодушевлённым предметам. Пример: "Оружие любит ласку - чистку и смазку". Опять же, аналоги эмоций и стремлений могут быть реализованы и на программном/механическом уровне. Пример - в запале гранаты пружина "стремится" ударить бойком по капсулю, но это "стремление" "сдерживается" усиками.
 

Bone$

Активный участник
Сообщения
698
Адрес
Урал
А почему на растяжке может "свой" подорваться? ИИ может тупо не быть запрограммированным на селекцию "свой/чужой", может произойти сбой в модуле распознавания, ещё масса вариантов.
Вот именно сбой, а не логическое решение "обратиться против своих"
 

Andy

Активный участник
Сообщения
1.697
Адрес
Германия
Ярослав С. написал(а):
А это сугубо терминологический момент. "Чувств" в человеческом понимании не может быть не только у ИИ, но и у животных (кроме человека), но, тем не менее, в рамках антропоморфизма, в бытовой речи, те или иные чувства могут приписываться и животным и неодушевлённым предметам. Пример: "Оружие любит ласку - чистку и смазку". Опять же, аналоги эмоций и стремлений могут быть реализованы и на программном/механическом уровне. Пример - в запале гранаты пружина "стремится" ударить бойком по капсулю, но это "стремление" "сдерживается" усиками.
_________________

А человеческие чувства чем принципиально отличаются?
 

Ярослав С.

Активный участник
Сообщения
12.983
Адрес
г. Шахты
Andy написал(а):
А человеческие чувства чем принципиально отличаются?
Принципиально? Наличием самоосознания, осознанного целеположения и т.д. Из всего животного мира к человеку ближе всего антропоиды, но и между ними и нами - пропасть.
 

Slovak

Активный участник
Сообщения
12.365
Адрес
Литва
Ярослав С. написал(а):
Принципиально? Наличием самоосознания, осознанного целеположения и т.д. Из всего животного мира к человеку ближе всего антропоиды, но и между ними и нами - пропасть.
Эту Вашу херню, уже опроверг не один ученый.
Вся проблема животных в том, что их интересует пожрать и потрахатся
 

Ярослав С.

Активный участник
Сообщения
12.983
Адрес
г. Шахты
Slovak написал(а):
Эту Вашу херню, уже опроверг не один ученый.
Какую именно "херню"?
Вся проблема животных в том, что их интересует пожрать и потрахатся
И в чём здесь проблема?

Добавлено спустя 12 минут 44 секунды:

Bone$ написал(а):
Вот именно сбой, а не логическое решение "обратиться против своих"
Возьмём, к примеру, за неимением пока искусственного - естественный интеллект. Простейший пример - нечисть болотная. Что это - болезнь или "альтернативное мировоззрение"? Да, согласно ВОЗовскому определению, всякие оппы здоровыми не являются, но судмедэкспертиза, в подавляющем большинстве случаев, напишет "вменяем".
Что же тогда вынуждает писать всякую хрень на плакатах? Только американское бабло? Ну так нравственно здоровый человек не возьмёт их.

Добавлено спустя 8 часов 24 минуты 49 секунд:

Ещё один момент - какие-то аналоги эмоций (как минимум на уровне "приятно-неприятно") необходимы для самообучения, а какой ИИ без самообучения?
 

MRJING

Активный участник
Сообщения
13.962
Адрес
Иваново
Ярослав С.
Я советую вам ознакомится с современным состоянием дел в изучении мозгов животных.
 
Сверху