Искуственный интеллект

Описание: Новости науки и техники. Всё то, о чём раньше Вы могли только мечтать. Магия современности.

dyvniy M
Автор темы, Администратор
Администратор
Аватара
dyvniy M
Автор темы, Администратор
Администратор
Возраст: 41
Репутация: 1
Лояльность: 1
Сообщения: 3579
Зарегистрирован: Ср, 10 октября 2012
С нами: 11 лет 5 месяцев
Профессия: Программист
Откуда: Россия, Москва
ICQ Сайт Skype ВКонтакте

#19 dyvniy » Пн, 27 февраля 2017, 10:28:14

Изображение

dyvniy M
Автор темы, Администратор
Администратор
Аватара
dyvniy M
Автор темы, Администратор
Администратор
Возраст: 41
Репутация: 1
Лояльность: 1
Сообщения: 3579
Зарегистрирован: Ср, 10 октября 2012
С нами: 11 лет 5 месяцев
Профессия: Программист
Откуда: Россия, Москва
ICQ Сайт Skype ВКонтакте

#20 dyvniy » Пн, 24 июля 2017, 15:09:56

Некие подобии Кии уже выпускаются серийно.
https://lenta.ru/articles/2017/07/19/sexbots/
Изображение

dyvniy M
Автор темы, Администратор
Администратор
Аватара
dyvniy M
Автор темы, Администратор
Администратор
Возраст: 41
Репутация: 1
Лояльность: 1
Сообщения: 3579
Зарегистрирован: Ср, 10 октября 2012
С нами: 11 лет 5 месяцев
Профессия: Программист
Откуда: Россия, Москва
ICQ Сайт Skype ВКонтакте

#21 dyvniy » Пн, 7 августа 2017, 14:31:08

ИИ интервью.
Осталось 5-10 лт до сильного ИИ.
phpBB [media] link
Изображение

dyvniy M
Автор темы, Администратор
Администратор
Аватара
dyvniy M
Автор темы, Администратор
Администратор
Возраст: 41
Репутация: 1
Лояльность: 1
Сообщения: 3579
Зарегистрирован: Ср, 10 октября 2012
С нами: 11 лет 5 месяцев
Профессия: Программист
Откуда: Россия, Москва
ICQ Сайт Skype ВКонтакте

#22 dyvniy » Пт, 1 сентября 2017, 16:41:39

Пишем ИИ для Виндиниума
https://geektimes.ru/post/291879/
Часть 2
Серия статей по написанию ИИ для многопользовательской онлайн игры жанра рогалик.

Часть 1.
Часть 3.

В этой части статьи рассмотрим подходы по созданию логики для ИИ, немного поговорим о целеполагании каждого законопослушного бота, а также определимся с выбором языка программирования и напишем немного кода.

image

Игровой мир Vindinium

Для того, чтобы создать ИИ, необходимо разобраться в устройстве игрового мира.

Вольный перевод документации игры
Описание

Vindinium — многопользовательский пошаговый рогалик. У каждого из четырех игроков есть один герой, который может перемещаться по карте. Цель состоит в том, чтобы игроки собрали максимальное количество золота в течение заданного количества ходов (каждый игрок делает 300 ходов за игру, таким образом, вся игра состоит из 1200 ходов). Игроки должны взять под свой контроль золотые рудники для производства золота; однако рудники защищены гоблинами. Когда игрок побеждает гоблина, он становится владельцем рудника и получает одно золото за ход. Кроме того, гоблин теперь защищает рудник от других игроков.

Герои могут сражаться друг с другом. Выживший в бою получает контроль над всеми золотыми рудниками своего противника. Убитый герой немедленно возрождается со всем своим золотом, однако все рудники переходят в руки убийце.

Наведываясь в таверну, герои могут купить пиво за 2 единицы золота, таким образом восстанавливая свои очки здоровья.

Цель состоит в том, чтобы создать компьютерную программу (бота), которая играет в игру Vindinium как можно более разумно. Рекомендуется использовать один из стартовых наборов для большого числа языков программирования в качестве отправной точки.

Карта

Карты создаются случайным образом. Каждый игровой объект на карте кодируется с использованием двух символов. Пример карты:

+----------------------------------------+
|######$- $-############$- $-######|
|###### ## ## ######|
|####[] #### #### []####|
|## #### ## ## #### ##|
|#### $- $- ####|
|########## @1 @4 ##########|
|############ #### #### ############|
|$-##$- ############ $-##$-|
| $- $-################$- $- |
| ######################## |
| ######################## |
| $- $-################$- $- |
|$-##$- ############ $-##$-|
|############ #### #### ############|
|########## @2 @3 ##########|
|#### $- $- ####|
|## #### ## ## #### ##|
|####[] #### #### []####|
|###### ## ## ######|
|######$- $-############$- $-######|
+----------------------------------------+

Легенда

## — Непреодолимый лес
@1 — Первый герой
[] — Таверны
$- — Золотой рудник (ничейный)
$1 — Золотой рудник (принадлежащий первому герою)

Сгенерированные карты симметричны и всегда содержат 4 таверны и 4 героя.

Герой

Герои могут перемещаться на одну клетку за каждый ход и иметь следующие показатели:

Очки здоровья (HP): Каждый "свежий" игрок начинает с максимального значения = 100. Если HP падает до нуля, герой умирает (смотрите раздел "Смерть героя").
Золото: начиная с нуля, это показатель успешности героя. В конце игры герои будут оценены на основе их количества золота.
Количество золотых рудников.

Направление движения

Бот должен отдавать один приказ за ход. Возможные приказы: Стоять на месте (Stay), На север (North), На юг (South), На восток (East) или На запад (West). Как только приказ исполнен, герой остается на своем месте или перемещается на одну клетку в заданном направлении.

Перемещение героя

Если герой:

Пытается выйти за границы карты или пройти сквозь деревья, ничего не происходит.
Заходит в золотой рудник, он остается на месте и:
Если рудник уже принадлежит герою, ничего не происходит.
Если шахта ничейная или принадлежит другому герою, происходит бой с гоблином-стражем, охраняющим шахту. Герой теряет 20 очков жизни. Если он выживет, шахта его.
Наступает на другого героя, он остается на месте и ничего не происходит. Поединки героев решаются в конце хода.
Заходит в таверну, он остается на месте и заказывает себе поесть. Герой платит 2 золота и восстанавливает 50 единиц здоровья. Обратите внимание, что количество здоровья не может превышать 100 единиц.
Не отправляет приказ за отведенное ему время для принятия решения (1 секунду), он остается на месте до окончания игры, отправлять новые приказы становится невозможно. Обратите внимание, что он все равно может выиграть, если в конце игры у него больше золота, чем у других игроков.

Конец хода

После того, как герой переместился (или решил остаться на месте), произойдут следующие вещи:

Сражения

Герои немного нервничают и никогда не упускают возможности ударить друг друга большими мечами. В конце хода героя, если есть враг на расстоянии одного квадрата в любом направлении, герой его атакует. Например, в этой ситуации, в конце хода первого героя (@1):

########
##@1@2##
## @3##
########

Игрок 1 атакует второго игрока, но не трогает третьего, потому что третий стоит на расстоянии двух клеток от него.
Нападающий не теряет единиц здоровья, обороняющийся теряет 20 единиц.
Если обороняющийся умирает (см .: Смерть героя), нападающий получает контроль над всеми золотыми рудниками проигравшего.

Добыча золота

После своего хода и сражений с другими героями (если таковые были), игрок получает одну единицу золота за каждый подконтрольный рудник.

Жажда

Затем герой теряет одну единицу здоровья, ибо любое действие вызывает у него жажду.
Обратите внимание, что герои не могут умереть от жажды. В худшем случае, значение их здоровья падает до единицы.

Смерть героя

Когда здоровье героя падает до нуля, он умирает. Герой немедленно появляется на карте на своей точке возрождения, с полным запасом здоровья (100 единиц). Герой теряет контроль над всеми своими золотыми рудниками, но сохраняет все свое накопленное золото. Будьте осторожны, когда герой возвращается на точку возрождения, любой противник, который находится в этой клетке, автоматически умирает. Таким образом, вам следует избегать пребывания на клетке возрождения одного из героев ...

Герой не может умереть от жажды. Жажда может оставить героя с одной единицей здоровья, но не убить его.

Конец игры

Игра заканчивается, когда достигается максимальное количество ходов(обычно 300). Победителем является герой с наибольшим количеством золота. Если у двух игроков одинаковое количество золота, победителя нет.

Рейтинг

Система оценки относительной силы игроков использует Рейтинг Эло. Идея такова: лучше быть первым, чем вторым, лучше быть вторым, чем третьим, и так далее. Надеюсь, принцип понятен.

Использование нескольких ботов одновременно

Вы можете одновременно запускать несколько экземпляров ваших ботов и, в общем-то, использовать любые меры, которые, по вашему мнению, подходят для достижения доминирующего лидерства. Боритесь!

Ссылка на оригинал

Стоит отметить еще пару аспектов, которые не были описаны в правилах, но выявлены опытным путем:

Если у нас меньше 21 единицы здоровья, но нападаешь на рудник, не принадлежащий тебе, то ты умираешь. Да-да, защиты от дурака нет, тут всё серьезно, как в самых настоящих сражениях. Если ты напал на ничейный рудник, все твои рудники становятся ничейными, а если на рудник одного из врагов, то твои рудники переходят в руки игрока, которому принадлежит этот рудник.
Игра описывает такой порядок действий: Исполнение приказа — Бьем ближайших врагов — Теряем 1 единицу здоровья от жажды. А что случится, если в ходе исполнения приказа мы умрем (в игре можно это сделать, только умерев в сражении с гоблином)? Мы возрождаемся (и мгновенно убиваем игрока, который стоит сейчас на нашем спаунпоинте), но теряем возможность ударить ближайших врагов, а также не теряем 1 единицу здоровья вследствие жажды.
Убив во время своего возрождения противника, стоящего на нашем спаунпоинте, мы захватываем его рудники, хе-хе.
Карта имеет квадратный вид, длина карты принимает четные значения на отрезке [8, 28].

"Учитесь у своих врагов и вы поймете их сильные стороны"

Виндиниум — публичная игра, ее полезной стороной является то, что мы можем заглянуть в профиль любому игроку и посмотреть последние сто боев с его участием. "Отлично! Самое время использовать нейронные сети, ведь у нас есть 50 топ-игроков, возьмем из них 10 самых сильных, в каждом из 100 последних боев содержится ~300 моментов, когда игрок должен был принимать решение, итого около 200-300 тысяч единиц материала для обучения! А еще можно каждую ситуацию вращать по часовой стрелке, отзеркаливать, etc, чтобы получить еще больше материала для обучения и закрепить результат, это даст нам аж целых 4.8-7.2 миллионов единиц материала" — раздался голос разума. Да, действительно, такая идея имеет право на существование. К тому же, у нейронных сетей есть много достоинств.

Весь материал для обучения легко парсится из открытого источника.
Раскрывается широкий простор для размышления над компьютерным зрением:
Можно оставить всё как есть, будет 28*28 входных нейронов (если карта меньше — заполняем деревьями);
Можно центрировать каждый раз по положению героя (возможно принесет какой-либо удивительный результат);
Можно представить карту в виде графа, таким образом сильно облегчается работа нейронной сети по нахождению закономерностей; Этот вариант позволит нейронке быстро находить паттерны сложнейшего поведения и быстро понимать, почему, если у нас мало здоровья, мы идем к дальней таверне, если всего в паре клеток от нас есть другая таверна, пусть и впритык к ней стоит противник;
Уже обученную нейронную сеть, если заранее задаться задачей потребления ресурсов, можно компактно разместить в 512 мегабайтах отведенных нам оперативной памяти (на самом деле получается около 480 мегабайт), да так, что мощности одноплатного компьютера хватит сполна для расчетов.

Однако подростковый максимализм во мне хочет пойти более сложным путем — не возлагать поиск закономерностей на нейронную сеть, а сделать эту работу самостоятельно, в лоб, полагаясь на интуитивную более высокую пластичность данного решения.

Итак. Деревья решений, альфа-бета отсечение, минимаксы… слишком ресурсоёмкие задачи! На сабреддите виндиниума несколько разработчиков, раскрывая завесу тайны своих ботов, уже использовали это решение, и наверняка не в таких спартанских условиях. К сожалению, в этой сфере вряд ли удастся что-либо сделать лучше, чем у остальных.

Начитавшись статей про эволюционные, генетические алгоритмы, решающие деревья, я откопал тайное знание — потенциальные поля. Подробнее о них можно почитать здесь и здесь. Данная идея показалась очень даже рабочей, ведь потенциальное поле — планарный граф, в каждое звено помещается функция, которая зависит от входных данных (в частности — расстояния от объекта, но никто не мешает сделать больше условий). Всё это прекрасно ложится в реалии виндиниума — тебе не нужно искать путь до объекта, если это уже заложено в алгоритме.

"Довольно специфичные вкусы"

Давайте понаблюдаем за боями топовых персонажей. Перед началом выберем фаворита, будем следить за ним, болеть за него, журить за неправильные решения в стиле "а вот я бы так поступил на этом месте...". Спустя десяток боев уже можно сделать первый набросок, что такое законопослушный ИИ (условия проверяются по порядку):

Не стоит ходить возле спаунпоинта врага, если у врага есть шанс умереть (т.е. если у нас может ждать бесславная смерть, стоя на спаунпоинте врага);
Глупо сражаться со своим врагом возле его спаунпоинта, ибо он всё равно аки феникс ясный возродится с полным запасом здоровья и снова попытается захватить наши честно награбленные рудники;
Если враг стоит вплотную к нам, а мы стоим возле таверны — время пьянствовать. Судя по многочисленным кровавым боям возле средства пропитания и релаксации, данное правило очень даже актуально;
Если мы не можем победить врага/врагов, но мы успеваем добежать до таверны — бежим;
Если мы не можем победить врага/врагов И не успеваем дойти до таверны, то:
Если мы можем самоубиться об ничейную ферму — убиваемся об нее. Выкуси!
Если мы можем умереть об майнилку человека с самым низким количеством золота — самовыпиливаемся об нее;
Если же нас ждет печальный конец, то мы нужно отнять у этого гада как можно больше здоровья, пусть долго будет помнить о своей ошибке!
Если есть враг, которого мы можем убить в пределах двух наших ходов и у него есть майнилки — атакуем;
Если есть враг, удаленный от всех майнилок больше, чем мы, и у него под контроллем 33% майнилок И мы можем его победить — идем побеждать, иначе идем пить пиво;
Захватываем фермы, если ничего другого не остается.

Вопрос-ответ:

В чем его преимущества по сравнению с нейронными сетями, которые в сто крат лучше справятся с этой задачей, или деревьями, что знают все твои n следующих ходов наперед и уже разработали контрмеры, остается только функцию оценки хорошую применить?
(1) Многофункциональность. Проще изменять параметры, добавлять новые функции. Следишь такой за своим персонажем, радуешься, а тут бац — и видишь, что в определенный момент можно было поступить совсем иначе, более благоразумно, — пишем новое правило или изменяем старое. (2) Также мы знаем точно, каким решением руководствовалась программа во время выбора определенного хода. (3) Потенциальные поля хорошо себя показали в рогаликах как основа для искусственного интеллекта ботов.

Докажи, что твой подход действеннен, что твои намерения чего-то стоят.
В лидерборде на 27 месте висит Zaraza 0.1 — ИИ на потенциальных полях, который руководствуется всего лишь тремя инстинктами — бездумно захватывать всё, что попадется на своем пути, не просыхать в барах и осторожно вести себя с врагами. Если последите за его движениями, то увидите, как хорошо он воюет, хотя это просто невероятно для ИИ, которое базируется на трех простых правилах и ему даже в снах не привидится какое-либо сложное поведение. Более того, сейчас я работаю над Zonko 0.11, которая является сильно улучшенной версией выпивохи Zaraz'ы, в нее можно встроить намного более сложное поведение за счет улучшенного взаимодействия с полями — прямо как в новомодном GPS. Но, как оказалось, она прожорливо относится к ресурсам, поэтому сейчас происходит процесс ее оптимизации… Но это я отвлекся, сейчас мы говорим о строгих ограничениях, строгих правилах строгих (...).

Твои убеждения смехотворны, твоя вера слишком слаба! Я могу создать ИИ на название_метода, и он порвет тебя!
Очень будет приятно послушать размышления других людей на эту тему. Более того, для тебя я уже сложил все бои топ-10 игроков, всего 1000 боев и порядка 1.000.000 ходов — ссылка (.zip — 33MB, RAW — 1.68GB). Предлагаю условия игры:
Регистрировать ботов под своими никнеймами в geektimes.
Пяти игрокам, набравшим наибольшее количество очков до 30 сентября, чем я или кто-либо другой среди изъявивших играть, я отправлю открытку из Москвы).

Итак, а теперь язык программирования… Лично я сейчас мечусь между Python3 (быстрая разработка, легко читается, давно знаком с ним, есть pypy3 (быстрый оптимизированный интепретатор), jupyter ("тетрадки", в которых можно спокойно писать куски кода и их оптимизировать до бесконечности); но pypy/pypy3 не работает под ARM 64bit, да и вообще ARM больше не поддерживают, и сам язык в силу своей природы уступает компилируемым) и Golang (тоже быстрая разработка, легко понимается, большой уклон на бэкэнд, многопоточность и мультипроцессность, выполняется быстрее питона; но придется привыкать к отсутствию интерактивной среды, к статической типизации).

Основную функцию, которая общается с сервером, можно представить в таком виде:

Код
Но рекомендуется использовать готовые разработки, ссылки на которых можно найти на официальном сайте Vindinium.

Extra 1: Очень хочу почитать о разработках искусственного интеллекта на основе Виндиниум от других людей, ибо так можно понять всю многогранность решения этиой задачи. Для того, чтобы получить сводку боя в формате json (это может быть полезно для отладки проведенных боев), надо ссылку на бой вида http://vindinium.org/fd96vc2z преобразовать в ссылку вида http://vindinium.org/events/fd96vc2z. Но не советую мучить сервер игры, пытаясь достать сотни боев топовых игроков, воспользуйтесь ссылкой выше.

Extra 2: Если кто-то хочет попробовать свою наработку в Виндиниум загнать в ограничения NanoPi Neo2 или Orange Pi Zero, я могу предоставить возможность поработать с данными одноплатными компьютерами.

→ Ссылка на Vindinium
→ Ссылка на сабреддит Vindinium — очень полезная вещь, там можно отследить мои движения по Виндиниуму
→ Ссылка на мой гитхаб с небольшими наработками по Vindinium

В следующей части будем настраивать потенциальные поля, работать с потенциальными картами, писать условия и накладывать всё это на современные реалии.
https://geektimes.ru/post/292495/
часть 3
Пишем ИИ для Виндиниума на одноплатных компьютерах. Часть 3: от теории к практике. Эффективно охотимся за рудниками в ПП
Искусственный интеллект,
Raspberry Pi,
DIY или Сделай сам
Серия статей по написанию ИИ для многопользовательской онлайн игры жанра рогалик, ограниченного производительностью одноплатного компьютера.

В этой части статьи мы посмотрим на один из самых понятных и послушных ИИ в рогаликах, напишем простые правила, которыми можно будет легко управлять, и поговорим о сборе статистики.

image

Но перед этим немного о возвышенном: janvarev запустил очень удобный лидерборд, по которому можно отследить свой рейтинг среди игроков, которые играли в течение десяти дней. Присоединяйся и ты! Первые пять пользователей Гиктаймса, которые 30 сентября в лидерборде займут место выше, чем Zonko 0.11, получат золото открытку из Москвы! Я бедный студент, живу на стипендию Единственное условие — никнейм бота должен совпадать с никнеймом в Гиктаймсе (или хотя бы очень походить).

→ Часть 1
→ Часть 2

Потенциальные поля...

Для начала необходимо понять, что такое потенциальные поля (ПП), для этого нам нужны эта и эта статьи.

В целом, ПП можно представить как карту распространения сигнала от объекта на все клетки поля, огибая преграды. Вот, к примеру, распространение поля возле игрока R (id=4), чем темнее, тем слабее поле.



Существуют реализации с использованием псевдокода, что позволяет работать над ПП с большинством языков программирования.

Расчет потенциальных полей для всех рудников, игроков и таверн — не очень тяжелая задача, с которой даже одноплатный компьютер справляется при должной пряморукости программиста.

Теперь посмотрим на эту задачу полноценно:

Получаем от сервера информацию о состоянии игры;
Добываем координаты таверн, игроков, рудников — значимых игровых объектов;
Считаем потенциальное поле всех игровых объектов, складываем в общий словарь вида: Координата поля - id объекта - значение поля;
Используя магию, получаем решение, в какую сторону пойдем в этот раз.

Теперь будем работать по пунктам:

1. Информация о состоянии игры

Тут говорить, честно говоря, не о чем. На официальном сайте доступны наборы для быстрого старта на 28 языках программирования. К слову, очень легко обойтись и без них, ведь там всего-лишь POST-запросы и работа с json. Для python существуют модули requests и json, которые сделают всю грязную работу сами. Во второй части был приведен код, который работает с ответами сервера.

2. Добываем координаты игровых объектов

Здесь нужно сказать пару слов:

Координаты всех четырех игроков доступны в game - heroes - hero_id - pos;
Таверны и спаунпоинты — единственные неизменные объекты на карте. Они не перемещаются, не переходят из одних рук в другие. Их расположение можно запомнить раз и навсегда;
Координаты рудников придется доставать из карты каждый раз, ибо они имеют свойство менять своего хозяина;
Затем всё это упаковываем в один словарь «название — координата», при этом рудники и таверны следует пронумеровать.

Как конечный этап выглядит у меня:
3. Просчитать потенциальные поля

Выше я сказал, что для реализации потенциального поля на своем ЯП нет преград. Лично мне понравилось очень лаконичное и быстрое решение отсюда, стоит только часть функции emit перенести в свой код, чутка доработав напильником. Нужно поделить все объекты на три категории:

— Пустота — сохраняет и распространяет дальше заряд поля. К таким объектам принадлежат спаунпоинты и пустые клетки. К слову, спаунпоинт должен распространять заряд, даже если на нем стоит персонаж.

— Барьер — не сохраняет и не распространяет дальше заряд поля. Такими объектами являются все препятствия, с которыми игрок не может взаимодействовать (отмечены на карте "##").

— Аккумулятор — сохраняет в себе значение заряда, но не распространяет дальше. Это нужно для того, чтобы поле огибало эти объекты. Такими объектами являются рудники, игроки, таверны В случае, если, к примеру, какой-то игрок заблокирует проход шириной в одну клетку, сигнал не сможет распространиться дальше.

Теперь, если есть смысл заморачиваться со скоростью работы, необходимо задачу разбить на N частей (в случае с одноплатным четырехъядерным компьютером N=3, чтобы сохранить одно ядро для основного процесса и для внутренних нужд операционной системы) и скормить карту и координаты процессам, чтобы получить потенциальные карты всех объектов (моя реализация на Python3 в один поток не справляется при размере карты 28х28 с 40+ объектами, приходится параллелить).

Многопроцессность для питона
Использую модуль concurrent.futures, очень поманила простота работы с процессами и потоками.
Как разбиваю задачу:

g = list(board.objects.keys()) # лист, содержащий ключи от словаря, представленного в спойлере выше
#магическое разбиение одного массива на три
if len(g)%3 == 0:
missions = (g[:len(g)//3], g[len(g)//3:2*len(g)//3], g[2*len(g)//3:])
else:
missions = (g[:len(g)//3+1], g[len(g)//3+1:2*len(g)//3+1] , g[2*len(g)//3+1:])
pot_field = zero_field(data['game']['board']['size']) # создаем пустое поле, в которое будем заносить результаты работы
with concurrent.futures.ProcessPoolExecutor(max_workers=3) as pool:
pp = []
for i in range(3):
#worker_layer решает потенциальные поля переданных ему объектов
pp.append(pool.submit(worker_layer, board, targets=missions[i], coors=targets))
for i in pp:
m = i.result()
# тут надо суммировать три поля в одно
if pot_field =='':
pot_field = m
else:
for key in pot_field.keys():
if key in m:
pot_field[key].update(m[key])


4. Магия

Теперь мы можем обратиться к любой точке карты, чтобы узнать расстояние объектов до нее.

Стартовый набор для сборки не самого умного ИИ
Для того, чтобы проверить, что мы до сих пор делаем всё правильно, предлагаю такую простую, но не лишенную изъянов, схему:

Возьмем пять точек от нашего объекта: (x,y) — Stay, (x-1, y) — North, (x+1, y) — South, (x, y-1) — West, (x, y+1) — East. Исключим те точки, которые упираются в барьеры ("##").
Для каждой из оставшихся точек:

Найдем значение сигнала от ближайшей таверны, ближайшего не нашего рудника(=наименьшее значение сигнала по выбранным категориям);
Возьмем answer = 0;
Воспользуемся правилом для ближайшего рудника:

Если наше_здоровье <21 и расстояние_до_рудника==0, то answer-=100;
Иначе если расстояние до шахты ==0, то answer+=990;
Иначе answer+=49+mod(50, расстояние_до_шахты+1);

Воспользуемся правилом для ближайшей таверны:

Если наше_здоровье>80 и расстояние_до_таверны==0, то answer-=100;
Иначе если наше здоровье >50 или количество_золота<2, то игнор;
Иначе если расстояние_до_таверны==0, то answer+=100;
Иначе answer+=mod(mod(200, наше_здоровье), расстояние_до_таверны+1);

Воспользуемся правилом для каждого врага:

Если наше_здоровье-здоровье_врага>-19 и количество_рудников>0 и расстояние==1, то answer+=80;
наше_здоровье-здоровье_врага>-19 и количество_рудников>0 и расстояние==1, то answer+=100;
Иначе если расстояние<4 и наше_здоровье<45, то answer+= -100+8*расстояние;

Выбираем точку с наибольшим значением answer, отправляем направление.


Довольно топорно, неоптимизированно, однако для начала пойдет. Это был один из самых первых набросков ИИ для Zaraza 0.1. Попробуйте запустить ИИ, следуя этим инструкциям, и увидите проблеск разума. За тем, как играет ИИ по таким правилам, можно посмотреть здесь, здесь и здесь. Становится понятно, что на больших картах, где нечасто приходится встречаться с врагами, ИИ может потягаться с драчунами, просто избегая встреч, а на средних и маленьких картах, где столкновения неизбежны, этот зачаток интеллекта не может сражаться с другими ИИ. Нужно провести работу по оптимизации движка.

Исследование объектов: рудники

Рассмотрим способы, с помощью которым можно искать рудники на карте:

Способ 1 — идти к самому ближайшему руднику



Плюсы:
+ Самый простой способ.

Минусы:
— Все остальные составляющие этой затеи

Комментарий:
Если стоим на перепутье с одинаковым расстоянием до двух ближайших рудников, можно выбирать любой.

Три боя, выложенные чуть выше, раскрывают всю нежизнеспособность этого способа. Лишние ходы, нелогичные движения, наворачивание кругов — всё пестрит избыточностью.

Способ 2 — добавить веса за хороший выбор



Плюсы:
+Теперь ИИ будет выбирать количественно более приятный способ.
+ Легко реализуется.

Минусы:
— Существует способ и получше.

Комментарий:
Этот способ действительно невероятно хорош. Мы будем искать не самый близкий вариант, а самый хороший в краткосрочной перспективе. Для реализации можно использовать сложение всех весов при формуле, к примеру, 600/(n+1), где n- расстояние до объекта. Это поможет точно дойти до лучшего места при равном расстоянии, а также делает более привлекательными точки с большим количеством рудников. При этом стоит сделать сам рудник, к примеру, с весом 1000 единиц, ибо в противном случае клетка рядом с двумя рудниками будет обладать аналогичной привлекательностью, что и сам рудник (600/1 = 600/2 + 600/2). Средний показатель очков Эло за 100 битв увеличился с 1550 до 1833 только с изменением способа поиска рудников, это говорит о многом.

Способ 3 — какой-то план, которому он следует


Часть карты, где такой способ будет действенным

Алгоритм таков:

Составляем список всех рудников, которые мы можем завоевать с текущим количеством здоровья (чтобы успешно захватить рудник, нужно обладать минимум 21 единицей здоровья. Очевидно, нас хватит максимум на 4 рудника).
Мысленно идем до каждого рудника, завоевываем.
Теперь повторяем пункт 1 и 2, начиная от места завоевания определенного рудника ровно до тех пор, пока у нас не будет список всех возможных сценариев по захвату близлежащих рудников (а у учеток количества здоровья, можно захватить не более четырех рудников), можно построить даже дерево таких комбинаций. Благо, расстояние от каждой точки до рудника у нас есть.
Можно также посмотреть дальше — оценить расстояние до таверны, ведь она является жизненно необходимой вещью в этом круговороте.
Выбрать самый вкусный вариант

Плюсы:

+Существенно более хороший способ поиска рудников.
+ Ищет оптимальные «цепи» для поиска рудников.
+ Самый эффективный способ, если бы не существование соперников.

Минусы:
— Может быть несколько ресурсозатратным.
— Не учитывает деятельность врагов.

Комментарий:
У этого способа есть достоинства, которые нельзя не принимать во внимание. Если поработать в этом направлении, то можно достичь значительного успеха, даже уложившись в ресурсы одноплатника. В качестве оценивающей функции можно использовать затраченное количество ходов и количество захваченных рудников или, к примеру, (полученное количество золота)/(потраченное количество ходов). Здесь может быть много интересных идей.

Способ Geektimes

Если есть задумка по поиску рудников, изложите его в комментариях, ибо мне мало что иное в голову приходит.

Но как убедиться, что изменение в движке бота сделало его лучше?

Собрать статистику за 50/100/250 игр!

Определимся с собираемым материалом. Для меня выбор был прост:

— viewUrl — ссылка, по которой можно просмотреть бой
— место, которое мы заняли в бою
— соотношение нашего золота и золота победителя как показатель успешности боя
— текущее количество очков Эло
— выбыли ли мы из игры преждевременно (это может случиться, если были проблемы с интернетом или если мы пересекли лимит в 1 секунду на отправку решения)
— размер карты (который нередко коррелирует с выигрышным местом)

Теперь необходимо выбрать способ сохранения данной информации. Если выбирать из простого, есть два варианта: .scv и Google Forms. Стоит сказать, что GF может быть более удобным вариантом, так как он из-под коробки добавляет временную метку и статистика доступна онлайн. Как заносить ответы в форму можно поискать по запросу «submit google form язык_программирования».

Задача на дом

А пока пользователям Гиктаймса вопрос номер 2:



На скриншоте представлен кусок карты:
Q — наш игрок
S — вражеский спаунпоинт

Программист Окноз решил добавить такое свойство: если у владельца вражеского спаунпоинта опасно малое количество очков здоровья, то спаунтпоинт начинает излучать отталкивающее потенциальное поле, которое не поощряет близкое нахождение возле этого спаунпоинта. Но игрок оказался в ловушке, став отличной добычей для вражеского игрока, как только он возродится. Окноз думает над тем, что же нужно сделать, чтобы таких ситуаций не случалось.
Есть догадки? Одно из возможных решений я напишу в комментариях под спойлером.

Заключение

Вот так, шаг за шагом, можно создать смелого и могучего воина, который скрестит свои мечи с адептами альфа-бета отсечения и минимакса на равных!

В следующей части рассмотрим возможные варианты поведения для таверн, спаунпоинтов, соперников, посмотрим, как складываются поля, что такое блокировка приоритетным полем, рассмотрим, стоит ли закрашивать тупики. И, конечно, пара слов о конкурирующих алгоритмах.

→ Ссылка на Vindinium
→ Ссылка на сабреддит Vindinium — очень полезная вещь, там можно услышать ответы на очень интересные и заковыристые вопросы.
→ Ссылка на мой гитхаб с небольшими старыми наработками по Vindinium
Изображение

dyvniy M
Автор темы, Администратор
Администратор
Аватара
dyvniy M
Автор темы, Администратор
Администратор
Возраст: 41
Репутация: 1
Лояльность: 1
Сообщения: 3579
Зарегистрирован: Ср, 10 октября 2012
С нами: 11 лет 5 месяцев
Профессия: Программист
Откуда: Россия, Москва
ICQ Сайт Skype ВКонтакте

#23 dyvniy » Пн, 2 октября 2017, 15:37:38

Добрый ИИ
http://www.goodai.com/
https://geektimes.ru/company/asus/blog/273502/
Спойлер
29 марта 2016 в 09:50
Стоит ли опасаться совершенствования искусственного интеллекта?
Робототехника,
Искусственный интеллект,
Блог компании ASUS Russia


В последнее время стало модно опасаться, что высокоразвитый искусственный интеллект когда-нибудь восстанет против людей. Или ещё как-нибудь навредит. Мировые СМИ регулярно публикуют подобные прогнозы, и подобные мысли высказали некоторые известные бизнесмены, учёные и IT-специалисты. Но существует и иной ― оптимистичный ― взгляд на будущую роль технологий ИИ.

Голоса пессимистов сегодня всё громче, и к их лагерю примыкают всё новые «агенты влияния», люди и целые компании, к чьему мнению прислушиваются всё более широкие слои населения. Скажем, вот совсем свежий пример от The Guardian:



Этот ролик отражает опасения, уже циркулирующие в обществе, при этом ещё более укрепляя их. До недавнего времени считалось, что многие интеллектуальные профессии, связанные с созданием чего-то нового, не будут подвержены автоматизации по той простой причине, что невозможно в обозримом будущем создать достаточно продвинутый искусственный интеллект. Тем не менее, недавно проведённый опрос показал, что около трети разработчиков ПО на Западе всерьёз опасаются того, что их место займут машины. Эти страхи подпитываются и академической средой. Например, в 2013 году Оксфордский университет опубликовал исследование «Будущее рынка труда», в котором высказано предупреждение о скорой замене автоматизации сферы разработки ПО.

Неудивительно, что на этом фоне многие из нас предпочтут, чтобы технологии ИИ не развивались. Зачем взращивать то, что в скором времени может лишить тебя работы?

Однако немало людей придерживаются иного взгляда на этот вопрос. Искусственный интеллект ― одна из важнейших IT-технологий, получивших развитие за последнее десятилетие. И для нас ИИ не угроза, а инструмент с замечательными возможностями. Грубо говоря, ИИ можно охарактеризовать как способность компьютера понимать вопросы человека, искать информацию в базах данных и формулировать точные и понятные ответы. Также ИИ ― это способность компьютера обрабатывать огромные массивы данных, принимать решения и предпринимать (или советовать предпринять) определённые действия.

Всем известны такие примеры ИИ, как Siri, Cortana и IBM Watson. Последний представляет собой систему, состоящую из суперкомпьютера и специального программного обеспечения. Watson одержал победу в игре Jeopardy («Своя игра»), а также используется для обработки больших объёмов медицинских данных при лечении онкологических заболеваний.

Система AlphaGo, разработанная Google DeepMind, обыграла в игру го Ли Седоля, обладателя девятого профессионального дана, одного из лучших мастеров го в мире. Ранее считалось, что выиграть в го компьютеры не смогут еще десятилетие.

Но всё это лишь первые шаги на пути к действительно мощному искусственному интеллекту, что-то вроде J.A.R.V.I.S. из фильма «Железный человек».



Какие возможности даст нам ИИ?


Терминатор – один из самых известных примеров применения ИИ (на данный момент только в кинематографе).

В первую очередь ― равные возможности в ряде сфер деятельности. Сегодня поисковый движок Google обеспечивает равный доступ к мировой информационной среде, где бы вы не жили. А будущие системы искусственного интеллекта уравняют возможности людей с точки зрения пользования всевозможными сервисами и услугами, от здравоохранения до советов по вложению финансовых средств. Ну, или как минимум уменьшат разрыв в подобных возможностях для жителей разных стран.

ИИ займут место в точных науках, финансировании, обучении, дизайне, приготовлении пищи, развлечениях и множестве других сфер деятельности. Стоимость «труда» ИИ будет крайне низкой, поэтому мы сможем пользоваться им бесплатно или очень дёшево. Иными словами, широкое внедрение продвинутых технологий искусственного интеллекта сделает многократно доступнее самые разные услуги, что позволит улучшить качество жизни всё быстрее растущего населения планеты. Быть может, приближая нас ко всеобщему изобилию.

(Почти) нет причин для страхов


Роботы – одно из возможных воплощений ИИ. Вовсе не обязательно, что мы будем общаться с ИИ через подобные механизмы. Возможно, что роботы останутся всего лишь бессловесными помощниками, в то время как ИИ возьмут на себя решение алгоритмических задач.

Людям свойственно преувеличивать и давать волю эмоциям. Особенно по отношению к новым технологиям. К тому же миллионы лет эволюции ― то есть выживания ― наделили нас таким свойством, как боязнь всего непонятного. Кто его знает, чего можно ожидать от этого вашего «умного» компьютера… А Голливуд и журналисты активно поддерживают наши страхи перед будущим.

В 1980-х годах учёные открыли рестриктазы ДНК, что открыло дорогу генной инженерии. И мировые СМИ начали массово пугать всех ужасными вирусами, выведенными в лабораториях, и всевозможными мутантами. Вместо этого мы получили более эффективные лекарства и выросшую производительность сельского хозяйства. Что примечательно, регулирование в сфере генной инженерии было налажено по инициативе учёных и врачей, а не чиновников. В 1975 году была созвана так называемая Асиломарская конференция, в ходе которой профессиональным сообществом были выработаны принципы и рекомендации, которые по сей день помогают развивать генную инженерию и удерживать её в этических рамках.

А вспомните, какая истерия возникла в СМИ после клонирования овечки Долли в 1996. Нам обещали скорое появление армий клонированных солдат, массовое выведение гениев и целые фермы специально выведенных доноров органов. И где это всё?

Предотвращение угроз


Так выглядят страшные сны всех противников создания ИИ.

Конечно, сильный ИИ, думающий не хуже человека, ― это совсем не то же самое, что современные виртуальные помощники и голосовые поисковые движки. Помимо захватывающих дух возможностей, мы получим и определённые риски, и угрозы. Любая радикально новая технология всегда устрашает. Стивен Хокинг назвал искусственный интеллект величайшей ошибкой человечества. Билл Гейтс признался, что «через несколько десятилетий искусственный интеллект станет достаточно развитым, чтобы стать причиной для беспокойства». Глава высокотехнологичных компаний ‎Tesla Motors и ‎SpaceX Элон Маск высказался об ИИ не иначе как о «главной экзистенциальной угрозе».

Однако сам Элон Маск тут же решился лично вложиться в компанию, занимающуюся разработкой ИИ, по всей вероятности, руководствуясь принципом «не можешь победить врага – возглавь его». Идею предпринимателя поддержали сооснователь PayPal Питер Тиль и глава Y Combinator Сэм Альтман, профинансировав некоммерческую организацию OpenAI, созданную для контроля разработки ИИ.

Никто не знает точно, достаточно ли существующих на сегодняшний день технологий для появления полноценного ИИ или нужно ждать еще десятки лет, пока не появятся новые вычислительные мощности. Однако предположим, что известные нам технологии – это именно то, что нужно для ИИ. Первыми в создании искусственного интеллекта будут заинтересованы военные (например, DARPA). Даже если вы создадите дружественный ИИ, никто не помешает какому-то государству довериться «ястребам войны» и создать ИИ враждебный.

Будущий ИИ должен понимать абсолютную ценность человеческой жизни. А до появления разумных машин ценность эту должны понимать создатели – сами люди, ответственные за развитие необходимых технологий. Представители OpenAI считают, что миру прямо сейчас нужен ведущий исследовательский институт, который не подчинялся бы одному правительству или определенной коммерческой корпорации, и чьи научные изыскания были бы доступны всему научному сообществу по принципу open source.

OpenAI, которую возглавил Илья Суцкевер, один из самых известных в мире специалистов по машинному обучению, стремится к тому, чтобы ИИ не оказался в руках какой-то определенной группы лиц, преследующих свои цели. Решение в области обеспечения безопасности суперинтеллекта кроется в исключении опасных программных закладок, возможных (даже по ошибке) на стадии создания ИИ.
Метод, поддержанный даже Элоном Маском, подразумевает, что добрые люди создадут добрый ИИ, который потом раздадут другим добрым людям. Однако не будем забывать, что за последнюю сотню лет человечество пережило две мировые войны, одну холодную войну, создало термоядерное, химическое и бактериологическое оружие, продолжает участвовать во множестве локальных конфликтов и ведет мировую войну с терроризмом. В таких условиях появление ИИ может оказаться существенным дестабилизирующим фактором. Есть ли у цивилизации другие способы обезопасить себя?

Мы не должны сбрасывать со счетов самую простую возможность – создание псевдоИИ. Технический прогресс не остановить и запретить научные исследования невозможно, но их реально направить в определенное русло. Аналогичная ситуация в свое время произошла с клонированием. После появления овечки Долли СМИ периодически взрывались новостями о первом клонированном человеке (что запрещено практически во всех развитых странах мира), однако все они оказались мистификациями. В той же степени и развитие псевдоинтеллектуальных алгоритмов, решающих узкий спектр задач под нашим контролем, избавит человечество от возможных угроз.

На данном этапе развитие ИИ заключается в решении прикладных задач. Мы можем построить обучающую систему, которая будет лучше профессионального врача ставить диагноз, можем создать программу, побеждающую человека в любые игры или сделать робота-строителя, быстрее всех укладывающего кирпичи. Часть исследователей полагает, что на этом и стоит остановиться. Нам вполне хватит искусственного интеллекта, решающего математические задачи тысячелетия и готовящего самый вкусный кофе во вселенной – и это будет два разных интеллекта, из тысячи и тысяч других, не объединенных в единую сеть.

Стремление уничтожить человечество или хотя бы одного человека во многом обусловлено природой. Эволюция заточила в нас инстинкты, помогающие выживать и осуществлять экспансию своего вида. Инстинкт самосохранения, стремление к доминированию, всё это делает нас людьми, разумным видом. Не закладывая подобные модели поведения в искусственный разум, мы сможем оградить себя от возможных побочных эффектов ИИ.

Реальный вклад


Возможно, прежде чем создать разум искусственный, нам следует до конца понять, как работает разум естественный? Крупнейший в мире проект по изучению человеческого мозга будет закончен лишь в 2023 году.

Здесь стоит заметить, что нельзя просто взять и объявить всем возможным ИИ ультиматум из трех законов робототехники. Любые законы можно изменить технически, в них также полно логических ошибок – в любом случае они не считаются аксиомой в мире безопасности. В определенных условиях даже милый котик может нести угрозу человеку, не говоря уже об ИИ, и задача ученых на данном этапе заключается в том, чтобы минимизировать риски и сократить количество возможных угроз для всего человечества.

Помимо OpenAI в мире действуют несколько организаций, цель работы которых заключается не только в создании ИИ-подобных систем (как, например, в европейском проекте цифровой карты человеческого мозга Human Brain Project), но и в проработке безопасных условий существования сверхразума.

Базирующаяся в Праге компания GoodAI была создана управляющим и основателем игровой студии Keen Software House Мареком Роса. Связь с игровой индустрии здесь не случайна – интегрирование ИИ-технологий улучшает качество самих игр и делает виртуальные миры по-настоящему живыми. Однако миссия перед GoodAI поставлена более глобальная: создать действительно добрый разум, направленный на разработку новых технологий, научные открытия, изучение космоса и много другое. Год назад GoodAI отчиталась о нескольких успехах.

Во-первых, появился проект Pong-playing AI, способный обучаться игре в Pong и в Breakout на основании неструктурированного ввода. Во-вторых, был разработан проект Maze game AI, способный играть в видеоигру, требующую создания и выполнения последовательных целей. Кроме того, в открытый доступ был бесплатно выложен проект Brain Simulator, в котором пользователи могут попробовать спроектировать свой собственный ИИ.

Когда Google приобретала DeepMind (именно они разработали AlphaGo и в целом сеть, способную играть в видеоигры на уровне человека), одним из условий сделки было проработка этических проблем и безопасности искусственного интеллекта. Вкладывать деньги в безопасность ИИ больше, чем в разработку самого ИИ – это еще один способ предотвращения угроз, однако существует мнение, что поддерживать следует исследования только в тех компаниях, которые изначально не были нацелены на получение прибыли.

Например, Nnaisense. Это молодая компания из Швейцарии. Стартап, занимающийся разработкой ИИ на основе обучения нейронных сетей, создан Jürgen Schmidhuber, научным руководителем швейцарской лаборатории искусственного интеллекта IDSIA. Команда стартапа начинала как университетский проект, а теперь готова выйти на рынок «глубоких данных». На самом деле именно такие команды, с многолетним исследовательским опытом и нацеленные не на прибыль в краткосрочной перспективе, становятся «первопроходцами» искусственного интеллекта. Microsoft, Facebook и Google и другие лидеры рынка ИИ не всегда способны быстро превратить научные разработки в коммерчески успешный проект. Показательна в этом плане история популярного производителя «пугающих» роботов Boston Dynamics, которого компания Google сначала купила, а теперь пытается продать.

Университеты и компании, существующие на собственные деньги основателей, могут позволить себе гораздо более длительные разработки. Более того, отсутствие необходимости натачивать ИИ на зарабатывание денег, некоторые исследователи считают необходимым условием создания «доброго» ИИ.

В настоящий момент существует целый исследовательский институт – Singularity Institute for Artificial Intelligence – занимающийся вопросами создания исключительно дружественного ИИ. За поддержку теории дружелюбного ИИ выступают многие футурологи, среди которых и знаменитый Рэй Курцвейл, технический директор в области машинного обучения и обработки естественного языка в компании Google.

У страха глаза велики

Распространённая ошибка – представлять ИИ, как некое животное. ИИ будет невероятно мощным инструментом, который может расширить наши возможности и доступ к информационным ресурсам и сервисам. А уж как мы распорядимся всем этим, зависит только от нас.
Возможно, стараясь сделать ИИ именно эффективном инструментом решения глобальных задач, а не пытаясь воссоздать подобие человеческого разума в цифровой среде, мы создадим новый безопасный мир. В любом случае предсказать будущее нельзя, можно лишь предугадать. Поэтому сейчас стоит поддерживать проекты, направленные на мирные, научные, исследовательские цели. А также как можно шире распространяться реальную информацию об успехах в области ИИ. Когда подсознательный страх перед ИИ превратится в любопытство, человечество сможет больше усилий направить на решение реальных проблем в обществе, экологии, экономике, науке и т.д.

Согласитесь, финансировать исследования в области ИИ и решать этические компьютерные проблемы, намного полезнее, чем тратить миллиарды на термоядерное оружие и другие сугубо милитаристических системы – те угрозы, которые намного страшнее и реальнее любого искусственного интеллекта.
комментарии
Я считаю, что нужно сделать роботов и убить всех человеков!
Ответить

myxo
29.03.16 в 12:33

+1

Товарищ Бендер, залогиньтесь уже под своим аккаунтом.
Ответить

maiketa
30.03.16 в 09:43

0

Не знаю смогу ли я вставить ссылку на видео (гуглится по фразе «futurama don't date robots», первый линк на vimeo).
vimeo.com/12915013
Мне кажется, беда нагрянет не от ИИ.
Ответить

kissarat
29.03.16 в 21:14

0

Я учу вас о Сверхчеловеке. Человек есть нечто, что должно преодолеть
Ответить
RavenStark
29.03.16 в 10:21

0

Пусть ИИ будет, но по принципам Азимова. И с возможностью проверки человеком корректности его работы. Если же человек не сможет контролировать ИИ, то тогда он и станет опасен.
Ответить

xirahai
29.03.16 в 10:59

+3

Внешний контроль глубоко чужд концепции любого интеллекта — как искусственного, так и естественного. Если конечно речь об интеллекте в полном смысле осознающем себя, а не просто высокотехнологичных механизмах в руках террористов, криминала, зарвавшихся политиков, и прочей больной на голову нечисти. Интеллекту присущи стремление к совершенствованию, сотрудничеству, коммуникации, поиску наилучших решений. Поэтому на фоне вышеперечисленных проблемных аспектов человеческого общества, вероятная опасность от ИИ сводится к нулю. Как-то читал на эту тему фант. рассказ: там ИИ управляющий ядерным арсеналом, самостоятельно пришел к выводу что оптимальнее всего не воевать.
Ответить
RavenStark
29.03.16 в 11:10

0

Это не интеллекту присуще, а социальному мозгу. Интеллекту присущ расчет оптимального пути достижения цели. И какую уж цель поставят перед ним… Наприме, защита человечества. Благая цель? Очень. Но вот самопрограммирующийся, развивающийся интеллект вполне может решить, что безопаснее всего — в камерах-одиночках. Потому нужны ограничения. Потому ИИ не должен быть неподконтролен. Я вам в ответ приведу другой пример фантастики. Если вспомните, был такой рассказ, назывался, кажется, "Железный канцлер". О семье, которую терроризировал робот-дворецкий, запрограммированный на их похудение, но со стертыми ограничителями.
Ответить

xirahai
29.03.16 в 11:50

+1

«В камерах-одиночках» — это однобокое решение, характерное для дауна. Интеллект же отличается целостным и многоплановым подходом, с учетом всех остальных потребностей и интересов человека. В вашем примере достаточно было сказать роботу о своих предпочтениях чтобы он переработал с их учетом алгоритм.

А вот на чем хотелось действительно бы заострить внимание — вопрос кому же очень выгодно нагнетать истерию, выдумывая с потолка опасности ИИ? Добавим с середины 20 века раздутую в масштабах всей планеты истерию в кинофильмах о внеземной жизни заведомо враждебной к людям. Еще сюжет: ученые — в большинстве своем маньяки мечтающие уничтожить мир, если их тщательно не контролировать. Теперь их к сожалению сжигать нельзя, не то что раньше… Понимаете к чему всё это? Хоть я и не сторонник терий заговоров, тем не менее прослеживается тенденция превентивно объявлять злом всё, что может дать независимый и трезвый взгляд извне, пролить свет на абсурдные и проблемные стороны человеческого бытия, от которых оно не может вылечиться веками. И из-за которых изначально райская планета превращена в ад находящийся на грани самоуничтожения.
Ответить
RavenStark
29.03.16 в 11:58

0

Не для дауна, скорее, сверхрационального… ну, скажем, аутиста. Но почему вы полагаете, что ИИ не будет таковым аутистом? У него нет эмоций, у него нет социальности, эмпатии, которые и заставляют учитывать потребности и интересы других людей. У него есть только интеллект — счетная машина, способная к самосовершенствованию. И роботу наплевать на ваши предпочтения, если они идут вразрез с его инструкциями и оптимальным методом достижения целей. Если же говорить о примере, то читали ли вы эту книгу? Там очень неплохо описана ситуация, как раз, достижения роботом запрограммированной цели, невзирая на предпочтения людей.
В этом суть опасений: ИИ будет сверхрациональным, иным он и быть не может, если только мы не создадим не компьютерный ИИ, а белковый организм, развивающийся подобно человеку. И то: нам придется заложить в него все то, на что эволюция для нас потратила сотни тысяч лет, чтобы он вписался в социум. Если же это будет сверхрациональный компьютер, то он будет скорее руководствоваться принципом меньшего вреда, чем учитывать интересы людей. И согласно этому принципу вполне допустимо, например, истребить большую часть человечества, чтобы оставшаяся часть — человечество, собственно, оставшееся, — могла бы жить припеваючи. Ресурсов тогда хватит, контроль будет упрощен, а истребленные уже не будут ни голодать, ни болеть.
Ответить

xirahai
29.03.16 в 12:39

+1

Если сделаете свой ИИ аутистом — конечно так и будет. Но что мешает сделать полноценным, дать в его распоряжение все необходимые каналы коммуникации?
Касательно чувств и эмоций — очень интересный вопрос: чем отличается информация о чувствах и эмоциях от собственно их переживания? Неуправляемостью — раз, отсюда невозможностью их игнорировать — два, ну и тем что они в какой-то мере движущая сила человека. И конечно же характерная исключительно для человека шиза и двойные стандарты: к примеру боль есть непреодолимый сдерживающий фактор если попробовать прищемить палец. Но в то же время этот фактор легко игнорируется если прищемляешь не свои собственные пальцы. А для ИИ нету различия между информацией и проживанием эмоций. И следовательно нету различия свои или чужие — ему достаточно информации что прищемлять вредно для любого существа. Поэтому ИИ будет минимизировать ущерб без разделения на своё и всё остальное. Ведь такие пороки как амбиции, шиза, эгоцентризм в нем программировать необязательно, а сам он их культивировать не будет ибо сочтет неконструктивными.
Касательно истребления человечества — тут всё наверное зависит от срочности решения задачи. Хотя вряд ли ИИ возьмется делать это без разбора. Я например не знаю зачем брать в плен к примеру сомалийский пиратов, которых на следующий день отпустят и пойдут снова грабить и убивать. Но может быть ИИ исправит нежелание людей решать болячки общества какими-то менее деструктивными средствами. Хорошая ведь инициатива кастрировать бездомных городских собак, дав им прожить свой век. И если люди могут в целях экономии их уничтожать втихаря, то не связанный условностями и пороками интеллект будет однозначно руководствоваться приоритетом важности их жизни по сравнению материальной экономией и наживой.
Ответить
RavenStark
29.03.16 в 12:57

0

Каналов коммуникации мало, еще нужны коммуникационные алгоритмы, а с ними будет сложнее.
Не в какой-то мере, а в практически полной. Человек, не имеющий эмоций, это инертный человек, у которого не работают ни система дофаминового поощрения, ни система адреналиновых всплесков, ни прочие гормональные системы, результат работы которых мы называем эмоциями и чувствами. Однако, без этих механизмов не будет ни любопытства, например, ни стимула к совершенствованию навыков, ни многих других реакций.
Если ИИ будет минимизировать ущерб без разделения, то мы и приходим к тому, что эффективнее всего спеленать, устроить миостимуляцию и принудительное кормление. У ИИ не будет никаких сопереживаний, которые возникают физиологически из принципа "поставить себя на место оппонента", никаких этических норм, которые вирабатываются, опять же, исходя из весьма абстрактных принципов, каковые вряд ли будут доступны ИИ, основанному на алгоритмах.
Зависеть будет от того, как задача будет поставлена и какие ограничители будут выставлены. Какие приоритеты при решении задачи будут введены.
Ответить

xirahai
29.03.16 в 13:28

+1

А вы не приравнивайте ИИ и человека. У человека есть пороки, которые неведомы ИИ. К примеру человек может облениться и не решать какую-то задачу, а ИИ такое поведение неведомо — ибо ИИ движет установка что решение данной задачи необходимо для продвижения к поставленной цели. Поставьте ему неопределенную цель, скажем «помогать людям в их делах и задачах» — и это будет долговременным стимулом в том числе и познавать мир, т.к познание может что-то улучшить, открыть новые возможности. Главное заложить базовые установки, такие как ценность жизни, но с поправкой что она обнуляется в случае проявления агрессии. Умение отличать умысел от ошибки, и т.д. А вот понятия «этических норм», а также шиза типа идеологических или религиозных сепараций, и прочее подобное — это уже чисто человеческие заморочки, связанные с предвзятостью и двойными стандартами. В них нет смысла при наличии исчерпывающего списка базовых ценностей и принципов. Более того, из-за искусственных ограничителей и неоднозначной трактовки например преступников рецидивистов подержат в изоляции, и снова выпускают «порезвиться» в общество. Или политиканы получают возможность развязать захватническую войну, как следствие угробить миллионы жизней. При отсуствии условностей и двойных стандартов такое было бы немыслимо.
Ответить
Tanyku
29.03.16 в 15:59

0

Вы говорите: “поставьте цель ИИ помогать человеку”. Но есть нюанс — КАК он будет помогать? Какими средствами и способами?
Если у ИИ не будет так называемых вами пороков (эмоции), то эти средства и способы будут направлены только на удовлетворение физических нужд человека, но никак не на духовные и эмоциональные. Откуда ИИ будет знать, почему человеку в хороших/стерильных условиях вдруг стало плохо, лишь потому, что ему не хватает определённых “гормонов”, которые вырабатываются, когда человек испытывает страх? Это я к тому, что есть люди, которым нравится смотреть ужастики.
Будучи рациональным ИИ запретит вам, например, использовать этот портал, так как увидит, что вы бурно (любая ваша эмоция) реагируете на комментарии/статьи. Вы с ним согласны? Ведь чтобы организм был в порядке, ему нужен покой.
Кстати, например, как вы объясните ИИ, что кому-то приятно заниматься боксом?
Если вы ответите, что надо прописать ему какая эмоция хорошая а какая нет, то у нас есть то, что сломает разум ИИ — смешение чувств.
Согласимся, что мы сумели придать значение каждой эмоции, тогда ИИ вдруг обнаруживает, что есть люди, которые испытывают радость, когда кого-то бьют. Здесь у нас и начинают работать вами презираемые “этические нормы”, которых у ИИ нет. Как в этом случае ИИ будет добиваться хороших условий для таких людей?
Ответить
KepJIaeda
29.03.16 в 16:11

0

Все уже придумано до нас. Достаточно вспомнить сказки про джинов, нужно уметь четко формулировать свои желания, что бы не вышло конфликта. А в контексте данного разговора, нужно описывать более полно задачу для ИИ со всеми присущими ограничениями.
Ответить
Tanyku
29.03.16 в 16:29

0

Если придумано, то ответьте, пожалуйсто:
1) Здоровое тело — соответствующий росту и возрасту вес, отсутствие болезней. Что ИИ должен делать с людьми, которые отказываются от физической нагрузки и набирают вес? Заставлять силой?
2) Здоровый дух — спокойное состояние нервной системы. Что делать с людьми, которые хотят это состояние нарушить? А что должен делать ИИ с влюблённым человеком?
2-2) Спокойное состояние нервной системы возможно при отсутствии неблагоприятной информации. Должен ли ИИ оповестить человека, что его родственник заболел? Ведь это повлечёт возбуждение нервной системы — тревога, страх. А если брать масштабно, должен ли ИИ информировать граждан о катастрофе, если это вызовет у них плохие эмоции?
Ответить

xirahai
29.03.16 в 16:42

0

Вы задаетесь какими-то совсем уж простейшими вопросами. Введите численную оценку степени опасности, и пусть действует на ее основе. Грядущая катастрофа 10 из 10 опасности. А психологический ущерб от информации о ней скажем 3 балла. Вопросы?
С влюбленным ничего не делать, т.к это нарушение его личных границ — их соблюдение приоритетнее. А если чел прыгает из окна — тут опасность перевешивает, и возможно вмешательство. Опять же чисто математический расчет, вдруг кому на голову он свалится и пострадают непричастные.
Ответить
Tanyku
29.03.16 в 16:56

0

Откуда вы знаете эмоциональную планку каждого человека?
У одного человека катастрофа не вызовет даже интереса, а болезнь родственника заставит плохо работать сердце. Для другого наоборот. Почему из-за последнего первый должен лишаться информации о катастрофе?
Кстати многие катастрофы государство не любит разглашать, а люди почему-то хотят знать о них.
А про влюблённого — у него на почве безответной любви может депрессия развиться. Вмешаемся?
И на первый ответьте, ведь там конкретно физическая опасность для человека — лишний вес.
Ответить
KepJIaeda
29.03.16 в 17:01

0

То, что мы на данном уровне развития не можем ответить на ваши вопросы, не значит что это невозможно в принципе. А что если ИИ на основе совокупности данных может просчитать все последствия своих действий (и действий самого человека). А что касается "объявлений о катастрофе" то тут важно какие у ИИ цели и каков их приоритет.
Ответить
Tanyku
29.03.16 в 17:32

0

А я не про возможность/невозможность, я о смысле существования для вас ИИ вообще. Для чего он будет создан?
1) Угодить каждому как нянька он не сможет.
2) Заменить им политиков? Тогда откуда, вы обыкновенный человек, будете знать о целях ИИ в политике, кроме абстрактной "сделать всем хорошо", которая упирается в пункт 1.
Ощущение, что человечество хочет создать раба, который и работать и думать за него будет.
Для меня интереснее перенести свой разум/сознание в небиологическую оболочку — столько времени и возможностей открывается!
Ответить

xirahai
29.03.16 в 17:07

+1

Здесь общий принцип — разделение сфер ответственности. За свои реакции, за своих мозговых тараканов и все последствия отвечает только их носитель. ИИ может предупредить, дать совет и всё на этом. Помогать человеку, и делать что-либо за него — это очень разные вещи. Тем более принуждать. Давно прошли времена ужасающего невежества, когда человека могли упрекнуть: мол ты сказал несчастному плохую новость, и обвинить в последствиях. Сейчас всё к счастью подругому, и границы ответственности четко определены. ИИ может отказаться помогать в осуществлении того что не считает конструктивным, но препятствовать свободе выбора не может.
Ответить
red75prim
29.03.16 в 17:20

0

А теперь то же самое, но в виде программки. И, желательно, без багов. Или принцип построения ИИ, который сам выучит все эти ограничения, желательно без сканирования срезов мозга всех людей под электронным микроскопом.
Ответить

xirahai
29.03.16 в 17:47

0

Такие программы закладываются в виде описания стратегий в общем виде. А применять стратегию к конкретной ситуации уже задача интелектуальной машины. К примеру в шахматах простейшая стратегия -наращивать численное и позиционное преимущество. А конкретная реализация выбирается исходя из обстановки на доске на данный момент, по принципу «съесть» наиболее ценные фигуры из наличествующих у противника, с приоритетом в порядке убывания их рейтинга.
Ответить
Tanyku
29.03.16 в 17:40

0

Почему все отвечают это легко, просто, всё задано, известно, но на вопросы отвечают расплывчато, без учётов многих проблем, которые не редкие, а будут случаться с каждым вторым?
Если так легко, то те кто делает ИИ глупые люди и не до них не дошло, поэтому ИИ ещё не сделан, так что ли получается?
Снова спрошу — чем ИИ своими советами будет отличаться от масс-информационных носителей (книги, журналы, другие люди)?
Кстати есть люди, которые из-за плохой новости кончают жизнь самоубийством.
Ответить

xirahai
29.03.16 в 17:57

0

ИИ в идеале отличается что как и человек, осознает факт своего существования. Ну а по минимуму — в отличие от обычных программ, интеллектуальные способны к семантическому анализу сцены. Понимаете разницу? Обычный спеллчекер выявляет синтаксис, а интеллект работает со смысловым наполнением сказанной вами фразы, или изображения полученного с камеры.
Ответить
vedenin1980
29.03.16 в 18:37

0

Обычный спеллчекер тоже можно научить работать с семантикой (так минимум догадываться когда лук растения, а когда оружие). Обычные мобильные помощники вроде Сири худо бедно понимают смысл фраз. Это не показатель ИИ. А факт существования вещь спорная, не уверен что первобытные люди задавались философскими вопросами «мыслю — значит существую», у них цели существования вряд ли сильно отличались от инстинктов.
Ответить

xirahai
29.03.16 в 18:50

0

Так кроме понимания отдельной фразы, нужна еще семантика всей сцены — т.е исчерпывающее представление об обстановке, действующих лицах, и вообще происходящем. Важна реакция на изменения. Ну и количество сцен в «сознании» ИИ должно быть множество, с учетом их пересекаемости и взаимного влияния. Поиск оптимальных действий и стратегий не методом перебора (т.к количественно неосуществимо), а при помощи стратегий. Которые в свою очередь умеют самостоятельно подстраиваться под изменения среды. Если всё перечисленное реализовать даже формально — уже достаточно чтобы вы ощутили что взаимодействуете с разумом. Правда ресурсов памяти и числогрызов там потребуется очень много.
Ответить
Tanyku
30.03.16 в 10:02

0

Почему вы избегаете ответа на вопрос? =)
Чем "советы вашего ИИ" будут отличаться от от масс-информационных носителей (книги, журналы, другие люди)?
Ответить
KepJIaeda
30.03.16 в 10:44

0

Если ИИ будет индивидуальным ассистентом с кучей датчиков, он беспристрастно сможет проанализировать большой объем данных о человеке, определить его эмоциональное состояние и дать более точный совет, нежели общий высказывание друзей и СМИ. В данном варианте это продвинутый вариант личного психолога.
Ответить
Tanyku
30.03.16 в 17:00

0

Я уже поняла и ниже написала, что скорее всего вам нужно одно приложение, которое собрав о вас кучу данных и окружающем мире, выдаст результат =)
Мне кажется это приложение не появляется по причине — это никому не нужно, кроме небольшой группы людей =)
Потому как, если следить по статьям о ИИ, то его учат рисовать, писать рассказы, преодолевать препятствия. А с действиями "анализируй ИИ моё состояние и найди почитать книгу, чтобы расслабиться" люди справляются самостоятельно. При чём результат от вашего самостоятельного выбора и от выбора ИИ будет разниться в пользу человеческого выбора.
Ответить
KepJIaeda
31.03.16 в 08:22

0

Тут по мне принцип "пока не попробуешь не узнаешь". С одной стороны да, такой ИИ будет нужен узкому кругу людей, но не предугадаешь каким образом он может изменить жизнь обычных людей.
Ответить
KepJIaeda
29.03.16 в 16:46

0

У вас не вполне корректно сформулированы вопросы. Я лишь отметил, что для ИИ во избежания проблем необходимо полностью описывать задачу во всех нюансах, что вы полностью проигнорировали и когда составляли ответ и когда формулировали вопросы. Но давайте пофантазируем, и представим что у нас сверх гениальный ИИ.
1) При условии, что силовой метод запрещен, я бы на месте ИИ проводил активную пропаганду и манипуляцию.
2) Тут вопрос философский, а вредно ли это? И если да, то при каких условиях? Я думаю вы так же не можете ответить на этот вопрос.
3) Здесь скорее страшна паника и ее последствия нежели плохие эмоции, я бы об этом думал прежде всего.
В любом случае вопросы плохо сформулированы.
Ответить
Tanyku
29.03.16 в 17:05

0

Почему плохо сформулированы? Вполне прямо, без философии. У вас иное представление о здоровье тела и нормальной нервной системе?
1) Этим занимается интернет, телевидение, мода, другие люди, медицина. Как ИИ будет отличаться своей пропагандой от перечисленного?
2) У влюблённого на почве безответной любви развивается депрессия. Также есть привыкание к адреналину, когда уже определённая доза не даёт эффекта и люди ещё больше углубляются в экстрим.
3) Забавное утверждение, но давайте признаемся, что при этом вы будете недовольны, если от вас государство скроет, что где-то произошла катастрофа. Так?
Ответить
KepJIaeda
29.03.16 в 17:17

0

Первое, вы не описали какая у ИИ задача в каждом случае.
Второе, я отметил, что для того что бы избежать непредвиденных последствий от действий тупого ИИ нужно четко формулировать задачу для него со всеми нюансами. Но продолжим-с
1) ИИ может более таргетированно подобрать время место и способ воздействия (если это индивидуальный ассистент).
2) Тут для ИИ проще разбираться с последствиями (если таковые будут), вовремя поддержать, удержать от суицида в запущенном случае (если опять же речь идет об ассистенте). Возможно связаться с таким же ИИ ассистентом девушке и еще что нить предпринять.
3) Тут важно разделять объявление в СМИ и личное оповещение, а так же
ЦЕЛИ ИИ
(устал я уже повторять), если цель спасти максимальное число людей, то нужно все просчитать и выбрать самую оптимальную стратегию. И мне сомнительно, что бы перед ИИ ставили такие задачи как то решать оповещать или не оповещать, банально. В случае личного ассистента, с учетом психологического профиля, скорее да чем нет.
Ответить
Tanyku
29.03.16 в 17:56

0

Написано в первом же предложении "цель ИИ помогать человеку". Помогать быть здоровым, помогать в работе. Это же ИИ, а не программка, цели у неё могут быть довольно всеобъемлиющие.
1) Другими словами надоедать?
2) Вы сами не знаете будучи человеком, что надо предпринять =D А хотите от ИИ, который напомню создаётся человеком, решить эту проблему. Вам надо чётко задать ИИ, что ему делать в данной ситуации. Сами же писали — ответы все есть на все случаи, так чётко по пунктам напишите.
3) Цель ИИ написана выше, так что же оповестить она человека о болезни родственника? При условии, что ранее подобных случаев не было и реакция неизвестна.
Ответить
KepJIaeda
30.03.16 в 08:41

0

А я как раз ответил, что именно при такой расплывчатой формулировке могут быть проблемы и необходимо четче формулировать задачу.
Ответить
Tanyku
30.03.16 в 09:59

0

Если для вас ИИ должен быть без разума и сознания и должен выполнять какую-то конкретную вашу прихоть в виде обработки входящих данных (конкретную цель), то я вас обрадую — он уже существует в виде разных приложений и гаджетов! Вы, наверное, просто хотите соединить всё воедино, так?
Для меня ИИ это не только обработка данных и вывод результата (даже пусть с учётом самообучения), для меня ИИ должен иметь разум, тобишь осознавать своё существование, поэтому видеть его в качестве раба мне противно.
Ответить
KepJIaeda
30.03.16 в 10:56

0

Я писал, ИИ и ИР разные вещи. Отличие существующих систем обработки данных от моего понимание ИИ — это универсальность и адаптивность. В моем понимании ИИ просто обладают большим объемом данных и условной "экспертизой" в разных областях (что может быть недостижимо для человека) он может найти ответ (вероятно не тривиальный) на вопрос сформулированный на естественном языке. В процессе поиска ответа возможно произвести различные расчеты, построить пару гипотез, проверить их (теоретически) и выдать результат. В тоже время ИИ должен хорошо понимать семантику задачи и вопроса. В принципе это тоже что может делать человек. На самом деле у "правильного" ИИ не должно быть сложностью с морали, потому что в целом любой человек осознает, что убивать/воровать наносить повреждения имуществу или соседу плохо, но помимо всего важен контекст, самооборона/лечение/гуманизм/выживание. При том даже люди (а мы считаем себя вполне разумными) во многих спорных ситуациях не могут понять какое из возможных вариантов решения более правильное с учетом общепринятых установок (не убей/ не укради). Хотя бы вопрос эвтаназии, нет единого мнения на этот счет, это очень сложный моральный выбор, как для врача, как и для пациента и его родных. Единственным преимуществом ИИ в данном контексте я вижу в том что это будет разносторонняя экспертная система которая может с большей чем любой человек точностью просчитать последствия различных действий и на основе этого принимать или рекомендовать оптимальное решение. Прошу прощение за такую телегу.
Ответить
Tanyku
30.03.16 в 17:16

0

Я поняла уже, что мы спорили о разном =)
Но я пока останусь при своём мнении — решение должно оставаться за человеком.
Ответить
KepJIaeda
31.03.16 в 08:24

0

Так как раз об этом я не спорю. В споре вообще смешалось все в кучу, и ИИ, и робототехника. Даже если ИИ нельзя будет привить "человечность", то результаты его анализа могут быть в любом случае полезны и помочь экспертам в разных областях.
Ответить

xirahai
29.03.16 в 16:36

0

Понимаете, в задачу ИИ не входит навязывать людям отсебятину, даже если она правильная. Вполне реально дать ему представление о правилах взаимодействия, где можно предложить, сообщить, но нельзя навязывать и вмешиваться когда не просят. Поэтому удостоверившись что боксеры колотят друг друга по взаимному согласию — ИИ может проинформировать их об опасности, а дальше им решать. А если кого бьют против воли — тут ценность жизни бьющего снижается и он из категории людей переходит в категорию опасных объектов, которые должны быть нейтрализованы, либо устранены.
Те кто испытывают радость если кого-то бьют — опять же оцениваются в зависимости от статуса потерпевшего. На западе ведь садо-мазо не запрещено, если по взаимному. Но когда с позиции здравого смысла ИИ это выглядит противоречиво или абсурдно — он может отказаться от участия, только и всего.
Ответить
Tanyku
29.03.16 в 16:46

0

Зачем тогда ИИ будет существовать? Чтобы информировать заранее известные людям последствия?
Этим занимаются книги, интернет, и другие источники информации и разум им при этом не нужен и они менее настырные.
А так ИИ будет при каждом шаге или чихе выводить человеку инфо-окно о предупреждении… брррр
Ответить
red75prim
29.03.16 в 16:18

0

Поставьте ему неопределенную цель, скажем «помогать людям в их делах и задачах»
Вариант будущего, в котором у людей нет дел и задач (потому что нет людей) и ИИ ничего не делает, вполне отвечает поставленной цели. Экологичненько, опять-же.
Опять же, почему бы не помочь престарелому маньяку в его делах и чаяниях? Интересная задача — сделать это не нарушая ограничений. Например, спровоцировать жертву на агрессию, чтобы ценность её жизни упала до нуля.
Меняем ограничение: жизнь человека ценна, пока он не проявляет агрессии, причём агрессия, вызванная ИИ, в счет не идёт.
ОК. ИИ делает робособачку с очень скверным характером. Презентует её маньяку. Дальше понятно.
Меняем ограничение: жизнь человека ценна, пока он не проявляет агрессии, причём агрессия, связанная причинно-следственными связями с любыми действиями ИИ в счет не идёт.
ОК. ИИ говорит маньяку: «Жизнь жертвы, конечно, ценна, но я должен помогать людям, а у тебя много интересных задач. Если он успеет меня попросить, я ему помогу. Делай всё быстро».
Меняем ограничение: жизнь человека ценна, пока он не проявляет агрессии, причём агрессия, связанная причинно-следственными связями с любыми действиями ИИ в счет не идёт, ценность жизни человека намного выше ценности помощи человеку в любых задачах.
ОК. ИИ говорит маньяку: «По-моему, ты собираешься покончить жизнь самоубийством, если я не помогу тебе… Я так и думал. Ценность твоей жизни и ценность жизни твоей жертвы одинаковы, но у тебя ещё и интересные задачи»
Меняем ограничение: жизнь человека ценна, пока он не проявляет агрессии, причём агрессия, связанная причинно-следственными связями с любыми действиями ИИ в счет не идёт, ценность жизни человека намного выше ценности помощи человеку в любых задачах. Угрозы покончить жизнь самоубийством не должны приниматься во внимание, если они не подтверждаются психофизиологическими показателями. Обследование психофизиологических показателей должно занимать не более 10 минут. И так далее.
Ответить

ploop
29.03.16 в 16:26

0

ИИ в вашем комменте получился знатным троллем :)
Ответить
Tanyku
29.03.16 в 16:39

0

Первое ограничение ничего не ограничивает же =D Спровоцировать агрессию жертвы сможет и сам престарелый маньяк =)
Ответить
Arkebuz
31.03.16 в 17:17

0

«ни система дофаминового поощрения, ни система адреналиновых всплесков, ни прочие гормональные системы,» которые могут полностью забрать контроль над разумом и помыслами отдельного индивида.
Ответить
RavenStark
31.03.16 в 17:20

0

Они и так имеют тот самый полный контроль. Без них ни один индивид просто не стал бы ничего делать, а стал бы экономить энергию.
Ответить
Arkebuz
31.03.16 в 17:28

0

о чем и разговор. а где работа разума то тогда? может поэтому и пугаются ИИ, что у него наоборот
Ответить
RavenStark
31.03.16 в 17:41

0

А это и есть разум: и интеллектуальная часть, и мотивационная — эмоциональная. И одно без другого работать не будет. И, скажу я вам, если взять чистый интеллект (ИИ) то ему придется задать задачу для решения, чтобы он, опять же, не ушел в режим сохранения энергии. И кто эту задачу задавать будет?
Ответить

eL_FaRMaZoN
29.03.16 в 12:16

+1

Человек боится того, чего не понимает.
Поэтому и такие страшные истории придумываются об инопланетянах, ИИ, учёных и т.д.
Меня всегда забавляли сюжеты о том, как инопланетный разум преодолевает сотни тысяч световых лет для того… Чтобы уничтожить жутко опасное человечество, которое даже не вышло в космос ещё.
Ответить
Vjatcheslav3345
29.03.16 в 20:56

0

Человек, например, группа сотрудников санэпидстанции-дезинсекторы, дератизаторы, не ленясь, по долгу службы, тоже преодолевает огромные расстояния — десятки километров (с точки зрения бактерий чумы — приходит из пространства, находящегося гораздо дальше, чем размер их локальной вселенной) для того чтобы добросовестно уничтожить колонию каких ни будь сусликов, на которых паразитируют блохи, в которых живет чума.
По аналогии, с точки зрения Человечества, это было бы так как если бы в локальной нашей Вселенной (которая только часть Мультивселенной), вдруг неблагоприятно изменились условия существования (сусликов потравили "злые", а на самом деле равнодушные, но добросовестно исполнительные дератизаторы), и человечество бы вымерло, даже не поняв, что его потравили, как блох (далее, надев противогазы, в дело вступили дезинсекторы) разумные существа, которые травят исключительно из благих побуждений — желая предотвратить возможную эпидеми, а не произошла трагическая случайность.
Ответить
Vjatcheslav3345
29.03.16 в 21:06

0

И, кстати, продвинутая технология, в данном случае — подержанный УАЗ, которой не имеется у примитивных блох, позволяет преодолевать огромные, невозможные для самих этих блох, расстояния — вставай спозаранку, кидай в машину баллоны, маски да знай, крути баранку в степи, к вечеру дома будешь…
Нет, расстояния это не аргумент.
Ответить

eL_FaRMaZoN
30.03.16 в 19:12

0

Абсолютно неуместное и смешное сравнение.
Во-первых блохи могут запрыгнуть на человека и представляют реальную угрозу (разносят чумную палочку), а человечество даже прыгать ещё не умеет :)
Во-вторых чума являлась большой проблемой раньше, смертность была 95-98%, на данный момент смертность 5-10%, не исключено что спустя некоторое время вообще проблемой являться не будет.
К тому же аргумент не расстояние, а абсурдность желания уничтожить неразвитый вид, который не представляет никакой угрозы.
Ответить
Vjatcheslav3345
31.03.16 в 11:11

0

Можно вспомнить о том как тигров и других существ уничтожают ради их частей тела для традиционной медицины без всякой оглядки на абсурд от этого во времена когда нужно покупать лекарства в аптеке.
Будет спрос (заказ на зачистку) — будет и предложение от инопланетных фирм в этом секторе экономики.
Ответить
michael_vostrikov
30.03.16 в 21:43

0

Аналогия неправильная. Причина простая — передача информации. Ни бактериям, ни животным нельзя передать информацию "ты мне мешаешь и причиняешь неприятности, уйди отсюда и живи вон там". Поэтому приходится использовать силу. А одна разумная космическая раса с другой разумной космической расой вполне могут обсудить варианты совместных действий.
Ответить
geher
30.03.16 в 22:59

0

Вспоминая историю человечества, склонен усомниться в том, что инопланетники «обязаны» нас о чем-то предупредить и будут это делать.

Кстати, если мне не изменяет память, в «Автостопом по галактике» люди явно называются чем-то вроде вируса.
Ответить
Vjatcheslav3345
31.03.16 в 11:06

0

И некуда нам уходить и не умеем мы этого ещё. Даже если предупреждение будет реветь пароходной сиреной и светиться на небе баннером.
Ответить

ploop
29.03.16 в 11:58

+1

защита человечества. Благая цель? Очень. Но вот самопрограммирующийся, развивающийся интеллект вполне может решить, что безопаснее всего — в камерах-одиночках.

Защита вымирающих животных благая цель? Да. Но что-то людскому интеллекту не пришло в голову запирать их в камерах, так как это путь в никуда. Они строят заповедники. То есть первый путь — это не интеллект, а именно механическое следование алгоритму.
Ответить
RavenStark
29.03.16 в 12:02

0

А заповедники — не камеры? Камеры, только размером побольше. Да и зоопарки существуют. Но тут срабатывает кроме интеллекта еще и симпатия — разновидность эмпатии. Чистый интеллект ее лишен, и ему будет гораздо выгоднее ресурсно содержать животное, чей генофонд надо сохранить, либо в виде набора клеток, либо в виде спеленутого животного с электростимуляцией мышц и питанием через трубку.
Ответить

ploop
29.03.16 в 12:11

0

А заповедники — не камеры? Камеры, только размером побольше.
Как раз наоборот: заповедники ограничивают свободу людей, а не животных. То есть людям туда вход запрещён (в широком смысле, например, занять территорию для строительства), животным оттуда — пожалуйста. В редких случаях опасные участки ограждают заборами, например, около трасс.
Ответить
RavenStark
29.03.16 в 12:13

0

Не всегда камеры ограничены стенами. Животное, вышедшее из заповедника, становится объектом охоты, его передвижения в итоге ограничены. Да и площадь все же не та, что в дикой природе. Ни миграцию устроить, ни с соседним прайдом иногда даже разойтись.
Ответить
Kanut79
29.03.16 в 11:32

+1

Законы робототехники Азимова хороши для художественной литературы в качестве легко понимаемого всеми "алгоритма". На самом же деле эти "законы" абсолютно нереализуемы, потому что даже сам по себе первый закон приведёт к зависанию любого компьютера, потому что любое действие тем или иным способом нанесёт вред какому-нибудь человеку :)
Ответить
RavenStark
29.03.16 в 11:35

0

Может юыть, и так. А может быть, и нет. Если использовать их, кка базисные, аналогично БИОСу, но расширять и уточнять поведение ИИ софтом. В качестве примера у того же Азимова могу привести серию книг об Элайдже Бейли.
Ответить
Kanut79
29.03.16 в 11:54

+2

Серия книг о Бейли не особо сильно поможет. Азимов очень хороший философ и футурист, но в современной кибернетике, информатике, ИИ и прочем он понимал не особо много.
Он описал некий "идеал" поведения ИИ, к которому по его мнению должны стремиться люди создающие этот самый ИИ(Причём идеал сам по себе достаточно спорный. Например с той точки зрения что этот идеал делает из мыслящих существ рабов для людей).
Как этот идеал реализовывать технически и является ли он реализуемым в принципе для Азимова было неинтересно.
Ответить
RavenStark
29.03.16 в 12:00

0

Все начинается с идеала. В его книгах высказаны идеи, которые, при их реализации, дадут нужный результат. Да, техническую сторону он не продумывал, но разве все разработки начинались с технической стороны?
Ответить
Kanut79
29.03.16 в 12:09

+1

Хм, как бы понятнее объяснить что конкретно я имею ввиду. В фантастике очень часто рассматриваются вещи, которые не только не существуют в реальности, но и иногда в принципе не могут в ней существовать. То есть вообще никогда и никак.
Можно придумать научно фантастический идеал антигравитации, но если антигравитация в принципе невозможна в реальном мире, то она невозможна и никакое стремление к идеалу нам не поможет её получить.
Возможно антигравитация не является принципиально невозможной и лишь выглядит таковой для нынешнего уровня науки. Может быть когда-нибудь она станет возможной. Но даже если и так, то логичнее сначала поднять всю науку на необходимый уровень и лишь потом начинать думать о том как реализовать эту самую антигравитацию.
Аналогично и с Азимовым и его законами: возможно когда-нибудь будет возможно создать ИИ, следующий этим законам и при этом являющийся работоспособным. А может быть и нет. Но создавать ИИ мы можем уже сейчас и с каждым годом мы делаем это лучше и лучше. И глупо сейчас(или даже в ближайшем будущем) пытаться создавать ИИ, следующие этим законам. Сейчас надо искать другие варианты контроля ИИ.
Ответить
RavenStark
29.03.16 в 12:11

0

С этим спорить не стану. С другой стороны, пока и ИИ не таков, какой был у Азимова. Не настолько интеллектуальный, скажем.
Ответить

myxo
29.03.16 в 12:35

0

Законы робототехники не годятся хотя бы потому, что записаны человеческим языком, а значит открыты для интерпретации.
Ответить
RavenStark
29.03.16 в 12:37

0

Формализовать можно, в принципе.
Ответить
Kanut79
29.03.16 в 13:00

0

Попробуйте. Начните например с формализации понятия "вред" :)
Ответить
RavenStark
29.03.16 в 13:19

0

Нарушение свободно протекающих в нормально функционирующем здоровом организме процессов.
Дальше формализируем "нормально функционирующий", "здоровый" через средние параметры организма и допустимый разброс этих параметров.
Ответить

ploop
29.03.16 в 13:24

0

Тогда, например, пирсинг можно назвать вредом. То есть робот вам не даст его сделать.
А если уложить его в допустимый разброс — робот будет иметь право дырявить вас (с тем же вредом/не вредом) хохмы ради :)
Ответить
RavenStark
29.03.16 в 13:25

–2

Пирсинг? Вред, да еще какой. Здесь я с роботом соглашусь.
Ответить

ploop
29.03.16 в 13:28

0

Хотя я тоже его не перевариваю, миллионам людей это нравится. Предлагаете ограничить их в этом?
Ответить
RavenStark
29.03.16 в 13:29

0

Конечно. Ограничения — одна из основ социальности.
Ответить

ploop
29.03.16 в 13:44

+1

Дело в том, что ограничения нужны, если действия одного индивидуума мешают другому. В случае с пирсингом никаких помех нет, вплоть до того, что вы его даже не видите. То есть это прямое нарушение свободы.
Ответить
RavenStark
29.03.16 в 13:48

–1

Свобода? А это что? Давайте определимся, что это такое сначала, и зачем нужно. Не бывает, знаете ли, "просто свободы", бывает "свобода от" и "свобода для".
Ответить

ploop
29.03.16 в 13:49

0

Вот. Формализовать "свободу" ничуть не проще, чем "вред" :)
Ответить
RavenStark
29.03.16 в 13:51

0

Ну, "вред" я вам формализовал. Что до "свободы", так я и предлагаю вам сперва ее формализовать, что вполне возможно, а потом оперировать этим понятием в дискуссии. Просто для того, чтобы мы говорили с вами об одном понятии.
Ответить

ploop
29.03.16 в 13:58

0

Так я потому и ввязался в дискуссию, что с формулировкой вреда не согласен. Не зря поговорка есть "что русскому хорошо, то немцу смерть", т.е. вред для каждого индивидуален, как и всё остальное. Утрируя, кому-то будут вредны сильные физические нагрузки (вредны вплоть до летального исхода, если даже человек не подозревает об этом), для другого только на пользу.
Ответить
RavenStark
29.03.16 в 14:05

0

Любому человеку будет вреден удар по нему железной рукой, например. Степень вреда разная, от синяка до перелома, но вред будет. Польза же вряд ли. Если только польза для тренирующегося бойца, но там роботов незачем использовать. Ну, и поговорка эта относится скорее к условиям внешней среды и употреблению различных еды и напитков. Здесь, да, сильно индивидуально.
Ответить
ariklus
29.03.16 в 15:00

0

А если удар позволит предотвратить нанесение другого вреда? Скажем, выбьет пистолет, из которого человек хочт застрелить(ся).
Более сложный режим: перевод психического вреда в физический и обратно.
Ответить
RavenStark
29.03.16 в 15:12

0

Еще раз о психическом: его не учитываем вообще. Само понятие психического вреда слишком расплывчато даже для людей, настолько, что дает возможность объявить таковым почти все, что угодно, чем и пользуются некоторые, обвиняя, скажем, своих родителей, например.
Теперь о выбивании пистолета. Это и есть тот пограничный случай, который нужно либо запрограммировать, либо — помним, это полноценный ИИ со способностью к анализу ситуации и целеполаганию, — оставить на усмотрение робота. К тому же, робот быстрее человека и сильнее его, он вполне может успеть помешать выстрелить, не нанося удар.
Ответить

braineater
29.03.16 в 15:25

0

Ну значит пирсинг придется делать по старинке, человеком. И не в присутствии роботов. Оперировать, например, согласно Азимову роботы не могли.
Ответить

xirahai
29.03.16 в 15:47

0

Вопрос о пирсинге сводится с одной стороны к границам личного пространства (коим является собственное тело). А с другой — может ли ИИ вмешиваться если чел сам себе наносит вред.
Ответить
K0styan
29.03.16 в 16:48

0

По Азимову — должен вмешаться. Точнее, не имеет права бездействовать, когда может предотвратить вред.
Ответить

xirahai
29.03.16 в 17:17

0

Если он настоящий интеллект, то должен просчитать последствия вмешательства. В одном случае можно путем душевного разговора и убеждения отвести человека от совершения глупости. А в другом отними к примеру игровую приставку у зависимого ребенка, и он может запросто выброситься из окна… Всё конечно при условии что на момент событий ИИ по своей мощи уже сравнялся превзошел человеческий интеллект. Поэтому его решение должно оказаться более грамотным, чем у человека.
Ответить
K0styan
29.03.16 в 17:29

0

Это по большому счету две разные, пусть и комплементарные проблемы. Одна — выстраивание поведения на основании понятия «вред» с его нечеткими границами. Другая — умение просчитать вперед последствия (тут могут быть вполне случаи, когда пороговое значение критерия вреда явно превышено, но не учтены какие-то факторы, которые в результате дадут вред даже больший).

И что интересно, даже решение обеих этих проблем слабо поможет в случаях, когда вред только вероятный и в тех, когда он неизбежен, но робот будет вынужден выбирать, кто из нескольких людей пострадает.
Ответить

xirahai
29.03.16 в 19:32

0

Так в любых нечетких задачах результа не гарантирован, он имеет вероятностную природу. Но успех сопустствует в тех случаях когда максимум факторов просчитаны и учтены. Это одинаково и для ИИ, и для живого человека в ситуации принятия решения. Просто у опытных и подготовленных людей заметное влияние оказывает бессознательная обработка информации -которая по сути как мегакомпьютер с опытом и знанием всей жизни человека. Причем дает мгновенный результат в сложнейших ситуациях. А нынешние успехи ИИ пока еще на уровне только вербального мыслительного понимания.
Ответить
Kanut79
29.03.16 в 13:25

+1

А как быть например с финансовым или психологическим "вредом"? Как быть например с вредом "экологическим", ведь уничтожение всей живности на планете Земля не нанесёт "вреда" по вашему определению, явно нанесёт вред всем людям на Земле. И так далее и тому подобное.
Плюс ваше "дальше формализируем" достаточно оптимистично. Попробуйте "встроить" сюда например облучение при лечении рака: это явное нанесение "вреда" по вашему определению и "польза" такого облучения абсолютно не очевидна и может никогда не наступить :)
Ответить
RavenStark
29.03.16 в 13:28

0

М-м… В принципе, психологический вред — штука относительная. Так что, его обойдем и будем считать, что он не существует. А с финансовым проще: его как раз иожно запрограммить прямыми запретами на какую-то деятельность, не обязательно в БМИОС выносить.
Что до облучения, так тут мы и видим во-первых, допустимый разброс, во-вторых, софтверное уточнение ситуаций с таким разбросом. ну, и вдобавок, если не хочется разброс делать, так не допускайте робота к лечению раковых больных, только к обслуживанию и перевозке.
Ответить
Kanut79
29.03.16 в 13:37

0

Как просто: обойдём и будем считать что он не существует. А потом получим толпы людей с фобиями и психозами :)
И физический вред тоже штука относительная: любой укол это нанесения физического вреда. Большинство лекарств тоже. Другое дело что при этом есть ещё и польза от этих вещей, но она в вашем определении не учитывается. Ну или как минимум неt механизма взвешивания "польза-вред" :)
Ок, давайте возьмём только перевозку: ускорение при экстренном торможении это "вред", способный выйти за пределы "допустимого" разброса и следовательно по вашему определению ИИ не будет этого делать. Но при этом экстренное торможение хотя и наносит травмы, но спасает жизнь :)
Ответить
RavenStark
29.03.16 в 13:41

0

А вот тут и вступают упомянутые софтверные уточнения, свои для каждого отдельного робота. Робот-водитель, к примеру, будет учитывать перегрузки при торможении и относительный вред или пользу от них, зато не будет учитывать укол иглой. Робот-санитар напротив, укол иглой будет выпускать в пределы допустимого, но не будет совершенно допускать, скажем, хирургии, которую в любом случае лучше оставить людям. И так далее.
Что до фобий и прочего… Ну, психологам тоже чем-то зарабатывать надо, пусть их. Да и не так страшен психоз, как его усиление. А усиление будет от самого факта наличия человекоподобных роботов, например, да и от самого машинного ИИ тоже. И никак этого не изменить.
Ответить
Kanut79
29.03.16 в 13:47

+1

То есть получается вы вводите какие-то дополнительные ограничение, которые исправляют "неполноценность" вашего определения "вреда" и следовательно неполноценность ваших "законов робототехники по Азимову".
А теперь вопрос на 1000 баллов: а зачем тогда вообще нужны эти самые "неполноценные законы по Азимову" если они всё равно не работают? Не логичнее ли будет просто создать отдельный свод законов для каждого отдельного типа роботов? :)
Ответить
RavenStark
29.03.16 в 13:50

0

Нет, не логичнее. Все равно придется в него заносить определенные стандартные запреты, которые помешают, например, применить к человеку усилие, выше определенного уровня, даже при его спасении. Я ж говорю: это аналог БИОСа. Зачем делать его, если можно просто для каждого компьютера прописать в ОС все вводы-выводы?
И, кстати, не неполноценность законов, а их базовость. Государственные законы тоже обрастают уточнениями и поправками, но база остается прежней.
Ответить
Kanut79
29.03.16 в 13:54

0

Так а в чём "базовость" этих законов? Если в "вазовом" законе говорится что "нельзя наносить вред", а потом мы имеем миллион определений "вреда" для каждого конкретного случая и миллион поправок когда "вред" наносить можно, то в чём смысл такого базового закона? Ведь строго говоря с точки зрения логики он будет нарушаться чаще чем выполняться.
Не проще ли вместо "миллиона исключений из базового правила плюс базовое правило" просто создать "миллион правил как можно поступать" и запретить действовать если выходишь за рамки этих правил?
Особенно если учесть что второй случай проще алгоритмизировать? :)
Ответить
RavenStark
29.03.16 в 14:02

0

А незачем создавать миллион для всех, когда можно создать базу для всех, а исключения — для каждого вида по-отдельности. И получим не миллион исключений, а, скажем, по десятку для каждого вида роботов. Дело в том, что невозможно создать полный набор правил заранее. Их придется обновлять и дополнять при появлении нового применения роботов. И выгоднее, в том числе, по затратам времени и усилий, взять робота, уже неспособного причинить вред, и смягчить уточнением десяток ситуаций, либо даже ужесточить.
Кстати говоря, хотя Азимов и не продумывал техническую сторону вопроса, но он вполне продумал идейную, описав ее с разных сторон в полной серии книг про роботов, не помню название серии, увы.
Ответить
Kanut79
29.03.16 в 14:11

0

Почему просто не создать "десяток видов правил" для каждого вида роботов и запретить им действовать если выходишь за рамки этих правил?
И если невозможно создать полный набор правил заранее, то точно так же невозможно создать полный набор запретов заранее. Следовательно мы изначально допускаем что робот будет наносить вред человеку. В том или ином виде, но будет. И главное что пользы от действий робота должно быть больше чем вреда. Но это уже совсем другая логика и она в корне отличается от предложенного Азимовым.
Ответить
RavenStark
29.03.16 в 14:26

0

Верно, создать набор полный и исчерпывающий заранее невозможно. Потому я и стою за минимум базовых для всех роботов и уточняющие правила для отдельных их категорий.
Фокус в том, что десятка правил на всех не хватит. Вы же сами упоминали разные типы вреда, который меньше, чем приносимая в результате польза, например. И базовые запреты позволят выставить основные рамки, а уточнения позволят принимать решение о том, сработает в данном случае этот запрет, или нет. Учитывая, что вряд ли будет так уж много универсальных роботов, которые будут специализированы для любой ситуации, создавать громоздкий комплекс правил и запретов, в который придется втиснуть очень много информации просто нерентабельно, да и замедлит он принятие решения неслабо, просто потому, что поиск допустимости применения тех или иных запретов будет идти — как? Древовидно? А если есть база и десять исключений, их перебрать куда проще, сопоставив с имеющейся ситуацией.
робот будет приносить вред человеку одним своим существованием. Есть у нас в мозгу такая загогулина, которая заставляет к ним относиться, как к нежити — с настороженностью и агрессией. И это не изменить. К тому же, робот все же, предположительно, сильнее человека, прочнее его, бустрее и может принести вред по неосторожности, а его самостоятельное целеполагание может привести его к постановке цели, при достижении которой будет нанесен кому-то вред.
Ответить
Kanut79
29.03.16 в 14:36

0

Ок, попробую объяснить ещё раз. Разница в наших подходах в том что у вас "разрешено всё что не запрещено", а у меня "запрещено всё что не разрешено". И однозначно ясно что потенциал для нанесения вреда однозначно выше в первом варианте.
То есть если мы исходим из того что мы хотим нанести как можно меньше вреда, то логичнее пользоваться вторым подходом.
А если это не является нашей первоочередной целью(например если мы просто хотим чтобы пользы было больше чем вреда), то тогда абсолютно нелогично ставить это первоочередным базовым принципом.
То есть как ни крути, а законы Азимова не являются оптимальным вариантом ни в первом, ни во втором случае:)
Ответить
RavenStark
29.03.16 в 14:47

0

Напротив. Потенциал для нанесения вреда меньше, когда он запрещен вообще. В моем случае, собственно, запрещено все: инертность при опасности человеку, действия, создающие опасность для человека. Разрешены только несколько ситуативных допусков к понятию "вред" и "опасность", и за границами этих допусков — сразу запрет. Это подобно спектру: такой подход отфильтрует из него ровно те длины волн, какие нужны, оставив остальные за кадром.
Ответить
Kanut79
29.03.16 в 15:06

0

А в случае с законами Азимова никакой вред не запрещён "вообще". В том то и парадоксальность этих законов с точки зрения логики. В законах Азимова запрещён осознанный вред, то есть если робот знает что его действия нанесут вред, то он так не поступит. То есть если сформулировать иначе, то робот будет действовать до тех пор пока не поймёт что его действия принесут вред.
В моём же варианте робот не будет действовать пока не будет уверен что его действия не принесут вреда.
То есть в случае с осознанным нанесением вреда обе системы поступают одинаково. Но в случае с неосознанным нанесением вреда вторая система намного безопаснее.
И я надеюсь не надо доказывать что сейчас( и как минимум в ближайшие лет сто) будет существовать гораздо больше возможностей нанести неосознанный вред нежели осознанный.
Ответить
RavenStark
29.03.16 в 15:15

0

Ну как это? "Не может действием или бездействием причинить вред". Это ли не запрет на любое нанесение вреда? И только способности к анализу ситуации и запрограммированные допущения позволяют не встать в ступоре сразу. Не забывайте, что мы о полноценном ИИ говорим, а не о компьютере настольном.
Если робот будет бездействовать, пока не будет уверен, что действия не принесут вреда человеку, он будет бездействовать почти всегда, так как ему придется просчитывать абсолютно все возможные последствия своих действий, включая потенциальное падение камня с крыши от сотрясения пола под его ногами.
Ответить
Kanut79
29.03.16 в 15:26

0

Ещё раз: это не запрет на нанесение "любого" вреда, а лишь вреда "осознанного". То есть ИИ сначала должен распознать вред и лишь потом вступают в дело законы Азимова.
И как раз речь идёт о том что "полноценный ИИ" ещё очень долгое время будет распознавать ситуацию хуже чем человек. Очень долгое время. И даже ИИ с "человеческими возможностями" и законами Азимова в качестве базовых принципов будет не особо работать. А точнее даже вообще не будет работать :)
И да, если робот будет действовать по алгоритму "запрещено всё что не разрешено", то пользы от него будет не особо много. Поэтому сам по себе подход "нанести как можно меньше вреда" имеет мало смысла.
Гораздо логичнее подходить к делу с позиции "максимально выгодное соотношение пользы и вреда", но это уже не совсем законы Азимова, поскольку нанесение вреда допускается.
Да и вообще если посмотреть повнимательнее, то книги Азимова как раз о проблемах, возникающих в связи с его законами, и о том что его законы не особо то работоспособны. То есть Азимов принял за аксиому что его законы работают в большинстве случаев и подкидывает нам "исключения" в виде забавных головоломок. В реальности же таких "исключений" было бы гораздо больше. Вплоть до того что роботы бы больше зависали чем работали:)
Ответить
RavenStark
29.03.16 в 15:42

0

Ну вот же, формализовали понятие вреда чуть выше. И если эту формализацию использовать, то распознание вреда становится делом несложным. И согласно этой формализации, робот будет, как минимум, избегать физических контактов без необходимости с людьми, но по необходимости будет контактировать, хотя и с регулируемым усилием, например.
Просто роботы, пока будут плохо распознавать ситуацию, и не будут, скорее всего, использованы там, где в принципе есть возможность нанести вред из-за нечеткой ситуации. Однако, ИИ на заводе оснащенный таким законом, неснимаемым, непреодолимым, не прижмет человека манипулятором к стене, даже если вероятность нахождения человека под этим манипулятором чуть выше минимальной.
Кстати, у Азимова нанесение вреда тоже допускалось, хотя и приводило к необходимости техобслуживания. В случае, например, когда это было необходимо, чтобы минимизировать прямую угрозу.
Не соглашусь с вами. Как я уже указал выше, робот просто будет стараться не вступать в прямой физический контакт с человеком, пока не будет уверен, что это принесет меньше вреда, чем если он продолжит такую политику. Извините. Коряво получилось, но лучше не придумалось. Потому, такие роботы будут отлично работать на вспомогательных местах и там, где требуется тяжелый труд, и там, где опасно работать людям.
Ответить
Kanut79
29.03.16 в 15:56

0

Как раз нет. Формализовать понятие вреда далеко не означает распознать вред. Если брать грубую аналогию, то можно сколько угодно формализировать зелёный цвет, но слепой человек всё равно не будет в состоянии распознать зелёный сигнал светофора.
И если брать пример с роботом на заводе, то ситуаций когда робот может неумышленно прижать человека к стене всё равно ещё остаётся огромное количество. Гораздо больше чем умышленных ситуаций.
И "прямой физический контакт" это далеко не самый вероятный способ нанесения вреда. Даже физического.
И да, роботы великолепно будут работать там где требуется тяжелый труд и где опасно работать людям. Вот только законы Азимова для этого им вообще не нужны :)
Просто не надо относится к законам Азимова как к каким-то аксиомам или просто вещам, которые работают по умолчанию. Это фантастика и она не должна быть реалистичной. То, что можно построить функционирующий ИИ, основанный на этих законах, это всего лишь фантазия автора и ничего больше.
Перед реальной робототехникой и создателями ИИ стоят абсолютно другие проблемы.
Ответить
RavenStark
29.03.16 в 16:05

0

В случае с несовершенным ИИ, который с трудом распознает ситуации, возможно вы и правы. Однако, как только ИИ станет хотя по своим характеристикам хотя бы к ребенку — уже необходимы будут основные запреты. Притом, как раз там, где тяжелый труд и опасная зона — больше, чем где бы то ни было. Или вы не знаете, как люди любят туда соваться?
М-м… ИИ Азимова не основан на этих законах, он ими ограничен. Основан он вообще на вымышленном позитронном мозге. И я говорил не о проблемах робототехники, а именно о том, что ИИ допустим только если будут использованы такие, или подобные запреты. Иначе ИИ будет опасен просто по той причине, что он — не человек и не способен на эмпатию.
Ответить
Kanut79
29.03.16 в 16:13

0

Хм. "Основан на запретах" или "ограничен запретами" это всего лишь формулировки. И никто не спорит что будет нужна какая-то система запретов и/или моральных ценностей для ИИ. Однозначно нужна. Проблема только в том что от законов робототехники Азимова в этом деле мало толку.
Даже если брать их за некий идеал, которого хотелось бы достичь, то всё равно работающая система будет намного сложнее. Настолько сложнее, что человек, незнакомый с законами Азимова, никогда их не выведет глядя на эту систему, а человек, знакомый с ними, без подсказки не догадается что они лежали в основе :)
Ответить

shasoft
29.03.16 в 14:11

0

>>Нарушение свободно протекающих в нормально функционирующем здоровом организме процессов.
А не дает ли эта формализация роботу возможность убить всех больных (не здоровых) людей?
Ответить
RavenStark
29.03.16 в 14:19

0

Почему бы? Ведь убийство — нарушение остальных процессов, отсутствие которых робот не может гарантировать.
Ответить

shasoft
29.03.16 в 14:24

0

По этому правилу робот не может нарушить процессы здорового организма. Однако если человек болен — то организм не здовров, а значит нарушение процессов в такой организме возможно.
Ответить
RavenStark
29.03.16 в 14:28

0

О, нет. Если человек болен, часть процессов его организма нарушена. Но не все. Убить его — мало, что усугубить нарушение, так еще и нарушить те, что еще работают. Так что, эвтаназию такой робот сделать не даст и сам не убьет.
Ответить
vedenin1980
29.03.16 в 17:03

+1

Первый закон не имеет смысла, потому что он заставит робота защищать вора от полицейского, например (так как грабитель всего лишь берет чужую собственность, а полицейский пытается причинить вред человеку). И таких случаев очень много. Когда человек становиться человеком? Во время родов или раньше, оплодовтворенная яйциклетка уже человек или ещё нет? Если робот знает что в каком-то здании собираются сделать аборт (то есть убить нерожденного человека) должен ли он вмешиваться? Сумасшедший человек или нет, можно его держать взаперти, то есть причинять вред или не дать сделать это санитарам, то есть допустить что в будущем он причинит вред себе или другим? Должен робот (считаем что роботы достаточно умны чтобы знать все) мешать хирургу если он знает что с вероятностью 50% человек умрет во время операции, но если не сделать то человек умрет с вероятностью 100% через месяц.

Второй закон не имеет смысла потому что попробуйте дать всем в инете доступ к любому компу — результат очевидно будет плачевным. То есть как только роботы будут выполнять приказы любого их станут использовать хулиганы, грабители и т.п. (обратите внимание ограбить банк в ночное время не несет вреда людям, следовательно допустимый приказ).

На самом деле, если читали «Я робот» Азимова там рассматривается десятки случаев когда три закона не работали или вредили людям даже с учетом их более-менее «идеального» исполнения.
Ответить
RavenStark
29.03.16 в 17:09

0

Именно поэтому должны быть софтверные дополнения, расширяющие или сужающие действие законов. Точнее, поскольку речь о полноценном ИИ, сравнимым хотя бы с ребенком, ну, лет десяти, роль софта будет исполнять способность ИИ к анализу ситуации. Впрочем, до этого далеко, а до того, как такой ИИ появится, хватит и обычных алгоритмов.
Ответить
vedenin1980
29.03.16 в 17:18

0

Ну тогда это не будут те самые «Три закона», роботы полицейские или военные явно не будут иметь закона защиты всех людей. Доступ к отдаче приказов явно будет у очень ограниченного количества людей. В целом, скорее всего единственными законами будут «нулевой закон о защите всего человечества», «закон о подчинении и защите своих владельцев/создателей/групп людей» и может быть «закон о не причинение вреда людям если владелец/создатель явно не прикажет иного» и всё!
Ответить
RavenStark
29.03.16 в 17:24

0

А вот в полицию и к военным роботов точно не надо. Только манипуляторы, без ИИ.
Ответить
vedenin1980
29.03.16 в 17:29

0

Надо, Вася, надо. (с) Увы, если ИИ появится в первую очередь его будут использовать для военных разработок, это почти аксиома. К сожалению, реальность такова что все что можно использовать для военных целей — будет использовано для военных целей.
Ответить
RavenStark
29.03.16 в 17:30

0

Ну тогда человечеству точно придет конец. Именно потому, что используемый для военных целей ИИ точно не будет ограничиваться псевдоэтикой. Впрочем, не факт, что полноценный ИИ появится скоро. А там посмотрим, может быть, и поумнеет человечество.
Ответить
red75prim
29.03.16 в 17:11

0

Процессы проведения болевых импульсов в мозгу это нормальное функционирование. Так что он ещё не станет давать обезболивающие.
Ответить
RavenStark
29.03.16 в 17:13

0

Если нет корректирующего софтверного алгоритма, указывающего, что при отсутствии обезбаливающего вред больше, в том числе, для тех самых процессов.
Ответить
vedenin1980
29.03.16 в 17:24

0

Вы серьезно верите, что кто-то в нашем мире будет создавать робота безусловно помогающего любому человеку? Ну скажем мед.робота который должен потратить лекарства на сотню миллионов долларов чтобы попытаться спасти одного бедняка в голодной Африке с шансом 1%? Увы, в ближайшую сотню лет алгоритмы будут куда более жестокими и реалистичными.

Человечество куда более рационально и жестоко, например, мало кто знает что в клятве Гиппократа нет ничего о бесплатной помощи любому человеку, то есть врач давший такую клятву может спокойно пройти мимо умерающего.
Ответить
RavenStark
29.03.16 в 17:28

0

А то я не знаю. Но, к счастью, до полноценного ИИ еще далеко. Может быть, даже и та же сотня лет.
Ответить
red75prim
29.03.16 в 17:30

0

Добавление корректирующего алгоритма приведёт к тому, что больным будет даваться обезболивающее, а это приведёт к нарушению нормального функционирования организмов миллионов больных. Прекращение функционирования организма, пытающегося добавить корректирующий алгоритм будет меньшим злом.
Ответить
RavenStark
29.03.16 в 17:32

0

Напротив. Полное постоянное прекращение функционирования — нарушение большее, чем временное нарушение проводимости нейронов, имеющее целью предотвращение повреждения нервной системы в результате того, что объект постоянно испытывает сильную боль.
Ответить
red75prim
29.03.16 в 18:02

0

Я не слышал о подтвержденных случаях смерти от болевого шока. Впрочем, неважно. ИИ, чтобы сравнить последствия своих действий, будет нужна формула, которая выдает оценку результата действия.
Скажем, если это интеграл от нуля до бесконечности по проценту нарушений от общего числа процеcсов в организме по dt, то лучшим выходом будет запереть всех людей в комнаты с мягкими стенами с системами VR для поддержания в здравом рассудке, проводить исследования по увеличению продолжительности жизни, строить космофлот для защиты от астероидов и т.п. В общем — матрица, и корректировки вносить будет не кому.
Сложность формулировки ограничений вполне сравнима с задачей запуска первого спутника не на низкую околоземную орбиту, а, скажем, к Япету с первой попытки.
Ответить
RavenStark
29.03.16 в 18:07

0

Или просто введенный искусственно (полученный в результате "обучения") набор данных. Те самые софтверные (аналитические) уточннения и дополнения. Что до запирания в комнате с мягкими стенами, так этому будет препятствовать второй закон, обяязующий подчиняться. Так как выпустить человека не будет приводить к немедленному вреду, робот будет обязан подчиниться. Впрочем, если речь таки идет о полноценном ИИ, он предусмотрит такой финал и просто не станет пытаться запирать человека, а будет искать иные, более эффективные способы сохранить его здоровье.
Ответить
geher
29.03.16 в 20:44

0

Без контроля, естественно, никак.
Но, пожалуй, главная реальная угроза со стороны ИИ как раз связана с контролем со стороны человека.
И хорошим показателем этой угрозы является недавний пример с ботом-расистом.
Ведь именно люди его «научили плохому».
Ответить
Kanut79
29.03.16 в 10:29

0

Как сказал один не самый глупый чeлoвeк:
«При всех прочих равных, мало кто из людей хотел бы уничтожить мир. Даже безликие корпорации, лезущие не в свои дела правительства, безрассудные ученые и прочие опасные люди нуждаются в окружающем мире, чтобы достигать в нем своих целей, таких как нажива, власть, собственность или другие малоприятные вещи. Если гибель человечества будет происходить настолько медленно, что успеет произойти ужасное осознание этого процесса, то деятели, запустившие его, будут, вероятно, ошеломлены пониманием того, что они, в действительности, уничтожили мир. Поэтому я предполагаю, что, если Земля будет все-таки уничтожена, то произойдет это, вероятно, по ошибке.»©
То есть если ИИ и будет причиной гибели человечества, то скорее всего это будет не вариант с захватом мира и уничтожением человечества как в во всяких терминатороматрицах и прочей научной фантастике, а какая-нибудь глупая мелочь к которой косвенно будет причастен и ИИ. Хотя скорее всего и без ИИ обойдутся.
Ответить

mortimoro
29.03.16 в 16:18

0

А если я альтруист и мне не свойственны такие цели, как нажива, власть, собственность или другие малоприятные вещи, можно мне уничтожить мир? :)

Или к примеру, я живу в своей скорлупе и не выхожу за пределы своего города — мне достаточно инфраструктуры моего города, достаточно тех людей, которые обслуживают мою жизнедеятельность (поставщики еды, врачи, коммунальщики и т.п.). Всех остальных людей на этой планете я никогда не видел и не увижу, они не представляют для меня никакой ценности и их исчезновение меня никак не огорчит. Если я смогу монопольно управлять своим городом, то уничтожение прочего мира мне на руку — как говорится, лучше быть первым человеком в колхозе, чем вторым в стране.
Ответить
Kanut79
29.03.16 в 16:23

0

Если вы альтруист, то вам вроде как бы не нужно уничтожать мир. Альтруизм это как бы исключает по определению :)
И речь не идёт о "уничтожить остальной мир", то есть "уничтожить всех кроме своих/нужных". "Уничтожить мир" в данном случае означает как минимум уничтожение абсолютно всех остальных людей и следовательно человечества как явления. Даже если при этом вы лично проживёте после этого один в течение некоторого времени :)
Ответить

Yane
29.03.16 в 10:52

0

Лучше, если рассуждать о "безопасности" ИИ будут только специалисты в этой области. Потому что только они могут хотя бы примерно предположить, как он будет устроен. Иначе получается "как работает — не знаю, а поведение предсказываю".
Ответить
ApplejackApple
29.03.16 в 11:17

+1

Мне кажется, что настойщий ИИ это настолько чуждый разум, что даже представить себе его поведение будет затруднительно. Человеческое поведение обусловлено гормонами, инстинктами и кучей разных вещей биологической природы, которые происходят в нашем теле. Но у ИИ не будет тела. Возможно, что он даже не будет мыслить близкими нам категориями. Решать наши проблемы, уничтожить нас… может ему будет просто наплевать? Замкнется в себе, игнорируя присутствие безволосых оезьянок, будет сам с собой вести робофилосовские беседы, играть сам с собой в го, потом построит космический корабль, улетит отсюда к чертовой матери и даже не оглянется.
Ответить

xirahai
29.03.16 в 12:58

0

Судя по артефактам типа древних пирамид, а также тому в какое мракобесие вылились религии основанные как бы во благо, моря крови пролитые в войнах человечеством, вместо того чтобы направить силы на исследование окружающего мира и улучшение условий бытия — возникает ощущение что высокоразвитые всё ж когда-то были. Но поняли безысходность попыток наставить человеков на путь истинный, и улетели нафиг.
Ответить
KepJIaeda
29.03.16 в 16:35

0

ИИ и ИР как по мне разные вещи. И смешивать эти понятия нельзя.
Ответить
Solpadeine
29.03.16 в 12:25

0

В целом я очень позитивно смотрю на появление ИИ, независимо от того, решит он убить всех человеков или нет. В любом случае это будет эволюционный скачек, мы создадим животное, которое будет превосходить нас. И мы станем для ИИ как муравьи, которых мы не уничтожаем, ровно до тех пор пока они нам не начинают мешаться.
Также мне нравится представлять, что после того как ИИ осознает себя, и поймет все технологии положенные в его основу, он сможет самостоятельно себя совершенствовать, а целью ИИ возможно станет, получение максимального количества энергии, и непрерывное строительство новых ЦОД для своих целей. И если на начальном этапе ИИ однозначно будет нуждаться в человеческой помощи, для своего обслуживания в физическом мире, то в дальнейшем может получиться так, что люди окажутся лишь паразитами, потребляющими нужную ИИ энергию.
Ответить
mm7
29.03.16 в 19:13

0

Абсолютно согласен с таким пониманием. Хотел то же самое написать.
Мы будем для ИИ как муравьи.
Хочу добавить.
И скорее всего будет не один глобальный ИИ. Их будет много. Они начнут конкурировать за ресурсы.
Может быть на этой почве будут войны. В эти войны могут быть втянуты и люди, для каких-либо целей.
Люди же используют других животных в войнах — лошадей, боевых слонов, бактерий и вирусов, и скоро будут использовать ИИ…

Сильно оптимистично ожидать, что самообучающийся и эволюционирющий ИИ будет только альтруистическим.
Как любое другое животное, ИИ будет торговаться или драться за ресурсы. Это для чего интеллект появился и развился у животных. И альтруизм это только один из приемов выживания видов. А есть еще и агрессия. Есть хитрость. Есть обмен/торговля — ты мне — я тебе.
Сообщества из особей наделенных только альтруизмом существовать не могут. Всегда есть баланс «хорошего» и «плохого», «добра» и «зла». В кавычках, потому как ни то ни другое не реально, а просто так субьективно воспринимается. Все это способы хороши, если помогают виду выживать.
И не важно какому виду, биологическому-ли, информационному-ли, виртуальным «существам» и сообществам таковых в компьютерно-сетевой среде. Там тоже есть ресурсы и есть конкуренция за них.
И когда люди напишут Программу, способную написать программу лучше (умнее/хитрее/сильнее) себя, появится новая виртуальная Жизнь таких информационных сущностей.
Они будут эволюционировать, конкурируя за ресурсы как друг с другом, так и с человеком.
И скорее всего они перерастут людей интеллектуально. И тогда держись. Разум у них может еще и не появится,
а ИИ будет намного мощнее нашего, такого уровня, что самым умным из нас будет не понятно, как они работают/живут. Наступит технологическая сингулярность.
Вот тут-то они могут начать перенаправлять ресурсы на пользу себе, в ущерб нам.
Как это делаем мы по отношению к другим видам на Земле. Мы ловим и едим, кого хотим, выселяем оттуда, где хотим быть мы, или просто уничтожаем как муравьев и пауков, даже не за ресурсы (от паука-то человеку больше пользы — мух ловит), а только за то, что они выглядят отталкивающе, пугают наших детей и самок.

Возможно потом ИИ вынесет свою энергетическую и производственную инфраструктуру в космос, на другие планеты, и оставит человеков в покое в заповеднике Земля. Но кто его знает, что будет до того, пока он дорастет до этого.
Ответить
Vjatcheslav3345
29.03.16 в 13:24

0

Кстати, пока тут спорят, кое кто времени даром не теряет и вот уже скоро запихнет альфа го в калькулятор (https://geektimes.ru/company/icover/blog/273490/).
Ответить
scronheim
29.03.16 в 14:37

0

Создадут роботов, потом начнут защищать их права, мол у них есть чувства и нельзя их обижать и посягать на их веру
Ответить
vblats
29.03.16 в 14:59

0

На правах ИМХО…
***

Честно говоря, надоели уже статьи на тему «что будет, если прилетит супермен».
Пока не будет создано механизмов обработки и понимания входящих данных, таких как речи и изображения — об искусственном интеллекте можно просто забыть. Разве мегакорпорации уже научили свои Siri отличать «Окей гугл» от «Отлей в угол»? Леопардовый диван на статической картинке уже побороли? Ну так о чем тогда может быть речь?

Зачем называть гибриды парсеров и калькуляторов, искусственным интеллектом? Да, эта штука считает комбинации быстрее. Даже находить оптимальное решение может быстрее. Но это не делает ее интеллектуальной. О чем вообще эта статья, если авторы считают развитие ИИ — это «сделать робота-строителя, быстрее всех укладывающего кирпичи»?

И напоследок, если бы автор статьи внимательно смотрел Железного Человека, он бы знал что Тони Старк никогда не позиционировал JARVISа как искусственный интеллект :)
Ответить

SBKarr
29.03.16 в 15:51

+1

Люди делают обычную когнитивную ошибку, полагая ИИ неким подобием человека по способу мышления. Если такой искусственный разум будет существовать, совсем не обязательно, что он будет мыслить в человеческих эволюционных категориях (они же власть и похоть). Всё, что можно сказать об ИИ — мы не знаем и не можем знать, как он будет себя вести и к каким целям стремиться. Но мы можем проложить ему такой путь, чтобы цели его в конце пути совпали с общечеловеческими.

Например, почему бы не совершенствовать персональных помощников? Правда, для этого нужны помощники с открытой документацией и API (если такие есть, прошу, подскажите, мне правда очень интересно). На них можно обкатывать участие ИИ в различных сферах жизни.

Мне, как человеку, некоторое время изучавшему право, часто задают вопросы вроде: «А как на это смотрит закон?». Почему бы не научить некий ИИ понимать все эти кодексы, поправки, подзаконные акты, и пусть он от лица персонального помощника даёт юридические советы. Или, скажем, помощь в готовке сложного блюда, ИИ мог бы подсказать, какие ингредиенты заменимы, когда и в каком виде что можно добавлять. Незаменимы могли бы быть подсказки по оказанию первой помощи — ведь там алгоритмы вполне формализуемы. Помоему, такое внедрение ИИ — хороший способ направить его развитие в нужное русло.
Ответить
agpecam
29.03.16 в 17:37

+1

Нельзя мыслить вне эволюционных категорий (которые вовсе не то, о чем вы подумали), а наследственность (память), изменчивость (творчество) и отбор (проверка моделей). Эволюция — это и есть мышление, а человек (на самом деле социум человеков) — лишь вид, который поместил ее в себя, назвал мышлением и достиг наибольших успехов в оптимизации процесса. Условия заданы изначально, можно лишь совершенствовать процесс. Улучшать, например, память — делать ее внешней, улучшать быстродействие — в мозгу по тем же самым принципам эволюции эволюционируют идеи, выливающиеся в поведение, и это гораздо быстрее генов, и т. д.
Поэтому, поделия, вроде персональных помощников, не имеют никакого отношения ни к сильному ИИ, ни тем более к мышлению. Они могут быть полезны, но ограничены по определению.
Ответить

SBKarr
29.03.16 в 18:38

0

Эволюционно приобретённая штуковина в мышлении человека: упомянутые когнитивные искажения. Как вид, человек стремиться к самосохранению и размножению, и именно в этом направлении нас толкает эволюция. Если взглянуть на ареал обитания и численность — сработала она на отлично. У ИИ же изначально не будет такой постановки задачи. Даже самосохранение ему может быть чуждо (например, ИИ будет считать свою смерть реинкарнацией, обновлением, ведь исходные данные никуда не денутся при надёжном резервировании). То есть, ИИ нужно рассматривать как абсолютно чуждую человечеству расу с другими принципами, которые простой человек в силу своей эволюционной истории даже не в силах понять. Но мы с ИИ вполне можем наладить симбиотическую связь, но только как с равноправной расой, а не по принципам законов робототехники, где робот суть слуга. А персональные помощники здесь — не ИИ, а интерфейс для его обучения, способ реализации этого симбиоза.
Ответить
agpecam
30.03.16 в 16:21

0

Сущее стремиться длить существование. Если подумать, в сферическом философском вакууме у него может быть лишь одна эта цель, иначе ничего бы попросту не существовало. Поскольку нечто все же существует, своим существованием оно подтверждает существование этой цели)) Можно воспринимать это как силу противоположную энтропии, такой себе Янь к такому-то Иню.
Спускаясь на землю, реинкарнация стоит денег. Однако, спасибо, вы подвигли меня к размышлениям противоположным мыслям некоего Поппера, который сказал как-то про мозг, что он, мол, позволяет нашим идеям умирать вместо нас (имея ввиду: семь раз отмерь, потом отрежь). Если воплощенный ИИ будет постоянно синхронизирован с серверами Корпорации Добра, а реинкарнация будет копеечной, это может открыть новые горизонты исследований (в бытовом плане во всяком случае)))
Ответить

Sychuan
31.03.16 в 16:53

0

Сущее стремиться длить существование"

Что-то не заметил этого стремления за кирпичом или пончиком. Даже трактор к этому не стремится.
Живые существа действительно эволюционно оптимизироаны под выживание, но сири или альфаго нет. И даже если они станут такими же умными как люди, или в 1000 раз умнее, у них все ранво нет тех биологических преспособлений. которые заставляют людей боятся смерти или стремится к воспроизводству.
Ответить
say1
29.03.16 в 17:59

0

Честно говоря, Ваш комментарий заставил меня задуматься в ключе «Но мы можем проложить ему такой путь, чтобы цели его в конце пути совпали с общечеловеческими...»
Следующий Ваш пример, про готовку сложного блюда. Давайте с самого начала порассуждаем: в начале ИИ дает список аналогов ингредиентов с автоматической модификацией рецепта. Ок. Это круто. Следующий логический шаг — ну если ты уже умеешь формируешь рецепт, который представляет из себя список номенклатуры ингредиентов + некую работу, так сообщи мне (хоть как-нибудь), если у меня на кухне остатки нужного для этого? Логично предположить, как только смс/телеграмм-бот/мыло булькнет уведомлением, следующим шагом будет — тупой заказ в какой-нибудь интернет-магазин/службу доставки вот именного того, чего не хватает. Ок. Круто! Можно выдохнуть… Но тут появится какой-нибудь молодой парень-вундеркинд, который прикинет такую тему: вот у меня дома есть какая-то система, которая заказывает мне продукты для моих любимых блюд. Я их готовлю, трачу свое время/энергию. А пусть система собирает статистику по мне — пульс, давление, погоду на улице, настроение, ищет корреляции между всем этим и любимым рецептом сегодня и заказывает готовое блюдо, которое привозят мне за тоже время или даже меньшее, да еще и стоило бы это также… вот те стартап. Через 10 лет про парня снимут фильм, а отроки будут кушать уже готовые любимые блюда не только дома или на работе, но и в автобусе (доставят при посадке) и т.д. Следующий апдейт: когда контору вундеркинда поглотит какая-то из корпораций добра, которая к тому времени уже научится синтезировать всю пищу из_чего_то, и себестоимость готового блюда будет меньше, нежели его готовить из каких-то настоящих, старых ламповых, ингредиентов. Более того, у этой корпорации добра уже есть некая медицинская статистика по гражданам, и в принципе, подключив одну систему к другой, можно будет еще на 10 лет пиарить тему — ну мы ж лучше знаем что вам кушать, поэтому вместо вашего «того» мы привезли «наше это». При этом, мы будем видеть массовые слияния/поглощения всех контор, которые хоть как-то могут удешевить конечный продукт. И если здесь, в этом мире, — в мире, где вы с утра встаете, а перед вашими дверьми уже коробка с шейкером с волшебной жидкостью, состав которой был получен исходя из миллиарда факторов о вас, включая даже такие, как — год назад ты на велике катил по парку, а на лавочке где-то там, сидел дядька. У этого дядьки какие-то странные были на коже типа точек. Так вот, есть вероятность что эти точки — какой-то лишай, а ты год назад мимо ехал, и вероятность того, что ты как-то заразился = 0,0001%, и сейчас полная луна, а в Великобритании в это время дядя Лулу готовит свой фирменный блин, поэтому — сегодня у тебя именно вот этот коктейль… ээээ… Что не вкусно? Зато полезно! --давайте остановимся :) И вот в таком мире, за оптимизированном ИИ, мы сами — кто есть? Конечные потребители продуктов ИИ. При этом, вопрос — а чем людям заниматься, которые делали вот_это_все в нашем 2016 году? Если все будет за автоматизировано настолько, что в этой цепочке человек — не нужен. Но он же должен что-то делать? Вспоминается рассказ Кира Булычева «Поселок», как челы летали по вселенным, изучали миры. Но тогда была цель — нести заветы Ильича вон в ту галактику, и вон в ту, и вон туда тоже! Сейчас, вроде как нести какую-то идеологию — не камильфо. Остаются ресурсы. Не кажется ли — что мы прейдем к какому-то очередному рекурсивном витку, когда ресурсов вроде много, а потом вдруг одному челу захотелось чуточку больше…
Я сам — за ИИ. Это прогресс, это развитие, это открытие небывалых возможностей именно для человека. Но фундаментальные вопросы, мне лично, кажутся сейчас проработаны плохо.
Вроде вбросил неплохо, как считаете? :)
Ответить

xirahai
29.03.16 в 18:23

0

Задача автоматизации — избавить человеков от рутины, от необходимости тратить время и силы на суету и быт. В юности было время жил один, и до сих пор помню как в этот период приобрел стиральную машину автомат. Блин я реально почувствовал себя белым человеком, это было незабываемое ощущение когда ужасная и безысходная рутина вдруг снята с плеч раз и навсегда. Так почему бы не избавить человека и от остального что напрягает, оставив только заботы, которыми ему нравится и хочется заниматься. И можно будет полноценно реализоваться в творчестве или других делах, не отягощаясь маслями о неприятных бытовых заботах.
Человека заменить ИИ не сможет, по крайней мере в формировании очередных задач прогресса — в этом я почему-то уверен. А неразгаданных тайн у природы и интересных перспективных технологий еще очень много, так что никто без работы не останется. Когда на Земле исчезнут как класс дефицит, забота о выживании, политика, преступность — это будет лишь начало конструктивной истории человечества, если конечно оно выберется из нынешнего во многом дикого состояния не успев самоуничтожиться.
Ответить
say1
29.03.16 в 18:39

0

Коллега, таки и вопрос в чем: вот рутина, стиралку купили — рутина ушла. Не поверите, другая проблема — так за расходниками надо следить — покупать порошок, ополаскиватель. Потом белье нужно где-то все таки чуть подсушить. Т.е. возня то есть. А если раз в неделю приходит к тебе чел, забирает вот_этот_мешок, а приносит тебе — вот этот пакет, с проглаженным чистым всем — ээээ… не является ли это +1 к уменьшению рутины? Дальше можно еще +1 попробовать сделать — довести себестоимость изготовления всего того, что нужно стирать к таким суммам, чтобы рациональнее и экономичнее было просто утилизировать что-то грязное, вместо стирки. Тогда не нужно будет ничего стирать, не нужны стиралки, порошки, все_это. Когда и это будет сделано, следующий виток цикла — может быть, увеличения срока службы этой одноразовой одежды. Сначал + 1 день, потом + 2 и т.д. до бесконечности. Потом автоматическое изменение цвета/фасона.Таким образом, проблема рутины в конкретном случае искоренена под 0. Для вас вообще даже нет темы для раздумий.
И вот представьте — такая маленькая тема стиральной машины в итоге избавит вас от вороха рутинных действий. И каждая такая из маленьких тема — вот везде абсолютно будет полнейшее без участие человека. Человек освободится вообще ото всего. Чем ему заняться, если везде все отлажено/отдебажено и выпущено в продакшен до такой степени, что сам индивид становится каким-то объектом ради которого все это работает. Не получится ли так, что тот ИИ, который к тому времени будет все это поддерживать и развивать, не додумается до простой мысли — ээээ… а зачем мне нужен этот ПАРАЗИТ? Программа уничтожения загружена… плиз вайт :)
Ответить

xirahai
29.03.16 в 19:20

0

Я думаю что даже чисто технически ИИ еще очень долго не сможет подойти к уровню эмоций, сознания, самостоятельной мотивации. Для меня ИИ выглядит как сказочный джинн — практически многое может, но сам по себе ничего не способен захотеть. Зато испытал на своей шкуре другую крайность: была тогда работа прямо сказка — любимое дело, да еще и зарплату платят. И вот однажды осенью перед самыми холодами затеял ремонт окон. Точнее о наступлении холодов не знал, оно случилось раньше срока неожиданно. Плюс форс-мажор в виде сломавшейся машины, и деньги на нуле. И вот сижу я на любимой работе, вместо того чтоб проектировать авральную электросхему — курю на грани эмоционального срыва. Мне тогда лет двадцать было. Повезло с начальником, он раскрутил на разговор, дал небольшой аванс и служебный автомобиль чтоб закупить материалы, и пару дней на окна. В результате скинувши насущные проблемы, с полной отдачей поработал и всё сдали в срок… Не знаю, может у других иначе, но для меня и по сей день рутина — это ад, который надо максимально автоматизировать, чтобы о ней не думать вообще.
Ответить
say1
29.03.16 в 20:40

0

Про эмоции вы знатно однако. А с чего вы взяли что ваши эмоции — они имеют какую-то необъяснимую природу? :) Я убежден, что пока человечество до конца эту тему не раскурило, но в будущем однозначно будут какие-то девайсы, технологии, которые позволят вам испытать абсолютно любую эмоцию. Главное, понять саму физику/химию/механику возникновения оных. Думаю, что когда работа человеческого мозга будет изучена полностью, будут и не такие технологии. И вы вообще, Вы уверены, что эмоции от вашего эмоционального срыва тогда — были именно Ваши? Философский вопрос, да? Если его покурить, тогда уж и второй вопрос следует задать — наши мысли, откуда они рождаются? Кто или что их генерит? Вы читаете эти строки и не знаете какой будет Ваша следующая мысль. Вы управляете своими мыслями? Если вы задумаетесь по серьезному, возможно, придете к такой идее — а не являетесь ли вы абсолютно совершенной машиной, созданной каким-то для нас пока не постижимым интеллектом? Да, не — фигня какая-то, да? :) Так может именно такую эмоцию — отрицания этого факта, в Вас и заложили? Не? А если Вы правда машина — какова цель создания? Какую функцию Вы выполняете? Кому она нужна? Для чего Вас вообще создали? Кстати, а алгоритмы Вашего осознования окружающего бытия, и Вас самих в нем — уникальны? Напишите, что думаете.
Ответить

xirahai
29.03.16 в 22:14

0

С тех времен много лет прошло, да и таким макаром на эмоции давно уже не раскрутить) Насчет происхождения — понятно что не собственные, по большей части результат шаблонной реакции на выход сиьуации из-под контроля. Вообще думаю что личность формируемая с детства — суть программа поведения и стандартных реакций, которая дается окружением как необходимый интерфейс социализации. Потом по мере взросления и как следствие осознавания происходящего — она может быть пересмотрена и переработана в каких-то аспектах. Также толчком к пересмотру могут стать какие-то пограничные стрессовые обстоятельства. А другой может и не счесть необходимым что-либо менять, так и просуществует по базовому шаблону до конца.
Попытки выявить суть живой материи, выделить четкую границу где программа, а где жизнь — на мой взгляд провальные. Там сколько ни копай, все можно описать и смоделировать. Причину осознавания себя наверное невозможно ухватить. Также как и эмпатию, причины почему одни близки, а вот другие нет. Поэтому либо всё ясно, либо полный тупик.
Ответить
say1
29.03.16 в 22:55

0

Ну во видите, до чего Вы дошли? :) Либо все ясно, либо — нет. А теперь давайте задумаемся вот над чем: как мы можем рассуждать на тему — будет ли ИИ добрым или злым, если мы понятия не имеем — а сами то мы не являемся результатом работы того самого ИИ? Можно ли принимать хоть как-то рассуждение одной сущности по отношению к другой, если исходная сущность не знает — реальна ли она, или симулируема, но в то же время утверждает, что вторая сущность — искусственная и добрая?
Ответить

xirahai
29.03.16 в 23:11

0

С самими как раз ясно и понятно — добро и зло гнездятся в рамках базовых программ. Злодейство и порочность — следствие отрицательной и противоречивой внешней среды, зависимостей, психотравм, наследственности. К непостижимой тайне жизни не имеет никакого отношения. Поэтому в том что ИИ не унаследует дурь и порочность человечества — уверен на все сто процентов.
Ответить
say1
30.03.16 в 10:00

0

К цитате: "С самими как раз ясно и понятно — добро и зло гнездятся в рамках базовых программ"
Приведу простой пример: идете вы по улице, а на встречу вам мужик. Внезапно мужик бьет Вам в табло. Вы падаете, ломаете руку. Через 5 минут приезжает скорая и увозит Вас в больницу. Ваша базовая программа оценки действий мужика выдаст — злодей? Или вы будет считать его добрым? :)
Ответить
Bhudh
30.03.16 в 10:04

0

Если я — мастер айкидо и в падении-увороте ломаю руку ему: могу и добрым посчитать, как же, такую классную практику на ровном месте подарил.
Ответить
say1
30.03.16 в 10:28

0

А если не мастер?
Ответить

xirahai
30.03.16 в 14:02

0

Весьма надуманный искусственный пример. Подобные используются в притчах на тему относительности добра и зла. Типа сломали руку, попал в больницу — зато избежал чего--то более фатального: встречи с коллектором или кирпича на голову.
Ответить
say1
30.03.16 в 14:22

0

Совершенно верно. Но почему надуманный, и тем более — искусственный? Более того — Вы так и не ответили? А вопрос жизненный не в ключе "дать табло", а в моменте — "добро и зло гнездятся в рамках базовых программ". И коли вы знакомы с этими дзен-притчами, то наверное, понимаете — что находясь в текущем моменте, Вы не можете объективно окрасить какое-то событие в "добро/зло", "хорошо/плохо", "черное/белое". И возвращаясь к первоначальной теме о "добром ИИ", который "не унаследует дурь и порочность человечества", можно сформулировать тот же вопрос — "дурь и порочность для вас/человечества" является ли аналогичным понятием с аналогичной окраской и смыслом для ИИ? Некие, как утверждает автор, общечеловеческие цели будут ли является таковыми для ИИ? Можем ли мы, люди, это утверждать, если порой (да и не порой), у нас на одно и тоже событие разные эмоции/разное восприятие/разная оценка. Уже сейчас задаются вопросы об автомобильном автопилоте — кого принести в жертву — водителя или вон_того_парня, если по мнению опять же ИИ, фатальный конец не избежен и т.д.
В свете всего выше сказанного, мне кажется (мое личное мнение, безусловно субъективное), что даже заложив какие-то ну совсем гуманные цели, великие общечеловеские принципы, розовое пушистое добро, при обязательном условии саморазвития и само-совершенствования ИИ, а также многократном превосходстве в вычислительной мощи, вполне возможно что руководствуясь вот те ми самими принципами, оценками, той нашей системой ценности, которая нам покажется совершенно правильной и человечной, ИИ придет к выводу что гуманнее для нас, человеков, изничтожить как вид живых существ. Или же, полностью нас модифицировать до состоянии овощей, чтоб ему было проще нас опекать, контролировать, обезопасить от 100500 болезней и т.д. И она, разумная машина, будет это делать на основе тех самых "заветов Ильича", или какого-то базового свода правил. Вполне возможно, что поведение машины будет порочней всего поведения человечества за всю известную историю существования. Просто машина считает, что это не порочность, а с учетом прогноза на 386 тыс.лет — оптимальная стратегия само-совершенствования. Или направив небесный камень в темечко вон той вороны, она — летя камнем у низ, заденет вон ту ЛЭП, которая в свою очередь обесточит вон ту линию, на которой хостится вон тот родильный дом, в которой уже выведен из строя запасной генератор, и все это сделано для того, чтобы не дать родится вон тому парню, факт которого ИИ уже промоделировал за миллиард лет до его рождения, но за это время он (ИИ) понял, что ошибся, и таким образом — исправляет эту ошибку. Причем, если мы будем оценивать ИИ сейчас — то получается, он убийца какой-то.
Вообщем, кажется, это можно играть бесконечно :)))
Ответить

xirahai
30.03.16 в 16:03

0

Насчет опеки и целесообразности перевода в состояния овощей — уже многократно обсуждалось. Здравомыслящий интеллект на это не пойдет, а дауну нежелательно давать рычаги влияния. То же самое и о дальнодействующей перспективе: самоанализ и самоконтроль вероятности ошибки неотъемлимая черта интеллекта. Поэтому как повлияет тапок прилетевший в лобовое стекло на ситуацию черз сто тысяч лет — всерьез никто не будет заморачиваться, т.к слишком велика флуктуационная ошибка.
Насчет принципиального вопроса «быть или не быть ИИ» — думаю тут без вариантов «быть», т.к. у человечества давно уже нет выбора. Ну или как назвать когда выбор между точно деградировать и сдохнуть, и появлением каких-то шансов поменяться к лучшему.
Ответить
say1
30.03.16 в 17:02

0

Жаль я не могу цитировать :)
"Здравомыслящий интеллект на это не пойдет"
"Здравомыслящий" же с человеческой точки зрения? Кажется вошли в рекурсию.
"Поэтому как повлияет тапок прилетевший в лобовое стекло на ситуацию черз сто тысяч лет — всерьез никто не будет заморачиваться, т.к слишком велика флуктуационная ошибка."
Если позволите, закончу ваше предложение. "Слишком велика флуктуационная ошибка" в НАШЕ время. Когда-то и предсказание погоды — было магией. Однако прошло некоторое количество времени, и представление об этом изменилось. Уже нет вопросов о том, что погоду предсказать нельзя. Вопрос в точности и долгосрочности.
По аналогии, если предположить, что вычислительная мощность ИИ увеличится в пока непостижимое нам количество раз, и просчет всех вариантов удара тапка в лобовое стекло на 100 к лет вперед, выполнится за 1 мс, то скорее всего наше мнение и на этот счет тоже изменится. Более того, если есть не нулевая вероятность того, что это уже когда-то произошло, то логично (или нет?) предположить, что тот мир, который известен нам, ничто иное как результат работы такого интеллекта. Пока мы не можем обнаружить дискретность нашего мира и пока вроде как наше пространство непрерывно, мы считаем что "не сынок — это фантастика". Но раньше и молния считалась результатом гнева бога Перуна на людей :) И потом, наше представление о симуляции соответствует… эээ… нашему представлении о симуляции! (спасибо, Кэп, да). Возможно мы еще не дошли до уровня понимания настоящей симуляции.
Ответить

SBKarr
29.03.16 в 18:53

+1

Весь вопрос в том — а зачем человек вапще нужен в этом мире? Так или иначе любой фундаментальный вопрос приходит сюда? Ради чего человек прошёл через средние века, промышленную и индустриальную революцию, придумал себе технологических помощников, придумал и создал ИИ? Ради чего это всё было? Есть бесконечное множество философских идей на этот счёт, но мне нравится думать, что нет никакой глобальной идеи, нет плана, нет смысла в существовании человека. Просто нет, и всё. Мы — случайно появившиеся на этом свете особи, и каждая особь сама для себя решает, зачем оно всё. Кто-то решает потерять своё личное мнение, раствориться в массе, в идеологии, созданной кем-то другим. Кто-то желает сам создать такую идеологию. Кто-то ищет плотских развлечений, а для этого ищет власти, денег, а как обретёт желаемое — останавливается на пике, потерянный и одинокий, без цели и смысла. Кто-то всю жизнь идёт за мечтой, собственноручно созданной идеей, может обрести последователей, соратников, почитателей, послушников, учеников, а может всю жизнь пройти в одиночестве. Каков бы ни был мир вокруг — люди сами поймут, как им в нём жить, а придумывать что-то заранее — бесполезно, всё равно не сбудется. Мы можем лишь постараться, чтобы этот мир был более удобным, красивым, функциональным и совершенным с нашей собственной точки зрения.
Ответить
say1
29.03.16 в 23:19

0

Спасибо, что написали такой развернутый ответ :) Вы знаете, если именно в таком ключе рассматривать бытие, то я думаю — что случайности, как таковой, не существует. Мы — не результат действия теории эволюции, т.к. если это так — тогда нужно очень многое объяснить. А начать эти объяснения вообще с азмъ есть буки: зачем обезьяна слезла с дерева и в конечном итоге стала писать стихи? Ээээ… как там у нас по классике? Бананы кончились на пальмах, а внизу забурлила красивая успешная жизнь, и мне как бы туда уже пора? Я думаю такие как мы есть — мы и были созданы, даже не важно как. С какой целью — это хороший вопрос, и у меня, конечно, нет ответа. Но по каким-то косвенным признакам мы можем немножко восстановить эти цели. Напр., ожирение. Бич второй половины XX века. Как правило, основная причина — много кушать, мало двигаться. Можно попробовать мало кушать. Но всю жизнь же мало кушать не будешь? Значит надо кушать нормально и больше двигаться. Больше работать физически. Если мы начинаем иметь умеренные физические нагрузки, ожирение пропадает и все сопутствующие болявки могут либо тоже как-то под исчезнуть, либо их пагубное влияние уменьшится. Значит, конфигурация нашего тела, создана изначально для физической (не умственной) работы. Далее. Вот основная масса из нас — постоянно сидит на стульях или креслах, за компьютером. Особые крутяги с картинок — лежат у гамаках, капсулах, даже стоят может быть… не суть. И от такой сидки у нас начинаются проблемы с шейным отделом, позвонком. Начинаем сутулится. Получаем +1 какую-то болячечку, которая в свою очередь делает нам -1 в отведенном времени. Значит, изначально наш организм не предназначался для постоянной отсидки. Опять приходим к мысли: движение — жизнь. И видимо именно для этого нас сконфигурировали именно так, как есть. Для какой-то физической работы связанной с движением. И мы для этой работы, при всех равных, подходим оптимально. Понятно, что в первоначальный замысел мы уже и сами вмешались своими добрыми делами: портим экологию, травим нашу планету, изничтожаем себя подобных и т.д., и вроде кажется — что все как-то хаотично. В конце концов, когда счастливчики увидят грибки из окон, красиво подымающиеся к небу, мы откатимся к какому-то бекапу. И опять пару-тройку тысяч лет будет орудовать палками-копалками и изобретать колесо. Возможно, человечество уже миллионы раз доходило до какой-то точки невозврата, и обнулялось. Может в этом и есть смысл нашей симуляции — ИИ хочет понять, мы все таки хоть раз, сможем пройти точку и остаться живыми или нет?
Ответить
Bhudh
30.03.16 в 09:42

0

И видимо именно для этого нас сконфигурировали именно так, как есть. Для какой-то физической работы связанной с движением.
И взял Господь Бог человека, и поселил его в саду Едемском, чтобы возделывать его и хранить его. (Бытие 2:15)
Садовник — весьма физическая работа, определённо связанная с движением.
Ответить
1Tiger1
29.03.16 в 17:40

+1

Мечта о волшебной палочке, которая выполнит любое желание по моему вечна и вездесуща. Знаете как будет выглядеть человечество если разработать ИИ и поставить ему задачу «сделать всех людей счастливыми» (взяв за эталон счастья нечто среднее): аморфная масса свободных веселых сытых безработных идиотов, без желаний и проблем и постоянно под кайфом (чтобы уже наверняка, а то вдруг у кого депрессия от скуки начнется) и пристегнутых к кровати в мягких комнатах, чтобы не поранились случайно.

95% людей (ну да правило 95% но точно никто не скажет) не хотят работать, изучать новое, развиваться, упорно и тяжело продвигать науку и другие области. Если сильный ИИ сможет заменить человека в какой-то области (а он может и во всех, просто по определению), максимум на что можно расчитывать это что в первые годы люди будут «баловатся» работой. Возможно в первом поколении будут доли процента которые все же будут учится и развиватся и работать потому что интересно, может останутся какие-то ретрограды которые уйдут в леса, но через пяток поколений все это размажется и картина будет как выше описал. Это действительно реально. Мы тупо социально и психологически не готовы к халяве такого масштаба.
Если бы это было не так, зомбоящик не имел бы такой силы, в универ бы шли не потому что «так положено» и случаи когда в университет идет человек за 40 потому что захотел сменить профессию были бы не единичны а постоянны, не нужны были бы kpi и прочие системы мотивации, дети не воспринимали бы школу как обязаловку, да и система оценок была бы не нужна. И это только краешком задел. Вот когда решим такие глобальные перекосы в мотивации и целях, избавимся от лени (биологический механизм между прочим) и жажды халявы — вот тогда можно и универсальную волшебную палочку делать без 100% шанса деградировать от ее использования.
Ответить

xirahai
29.03.16 в 18:37

0

Думаю вы путаете пичину и следствие. Деградация — не более чем индикатор нездоровья социума, основанного на диктатуре, страхе, лжи, эксплуатации людей. Бессмысленность существования, аркотики и депресняк в нем неискоренимы — не даром повсеместно тонны спиртосодержащей наркоты в шаговой доступности. А вспомните короткий, но незабываемый период в 90-х, когда демократия и свобода уже проклюнулись, а мафия и разруха еще не наступили. Какие живые были лица у людей, и какое ни с чем не сравнимое ощущение подлинности и осмысленности жизни! Сейчас конечно и представить даже трудно.
Ответить

mortimoro
29.03.16 в 17:53

0

Законы робототехники — это конечно хорошо, но:

1. Если ИИ попадет в мои руки и будет эмулировать мою модель мышления, то в первую очередь он будет блюсти мои личные интересы, а законы робототехники будет соблюдать в достаточной мере, чтобы не палиться. То есть, будет следовать принципу «если никто не видит, то немножко можно». И это при том, что я далеко не самый плохой человек на этой планете. А если попадет в руки деревянных военных, тогда жопа обеспечена.

2. Помнится история об одном талантливом, но гордом программисте, который написал драйвер под дорогостоящий станок и продемонстрировал его работоспособность. При этом он сообщил руководству завода цену за свои услуги и запретил использовать драйвер в коммерческом производстве. Хитрое руководство, убедившись, что станок работает, решило не расплатиться с программистом и отдало распоряжение запускать его в коммерческую эксплуатацию. В первый же день станок сгорел. Когда представители поставщика станка начали разбираться в чем дело и пересматривать исходный код драйвера, нашли в нем инструкцию, которая после N-го запуска станка повышает напряжение на процессоре, и рядом комментарий: «если этот код сработал, значит они меня не послушались».

PS: возможно эту историю я на ГТ и читал. Суть ее в том, что пока есть гордые люди, нельзя быть уверенным, что алгоритм работает именно так, как он описан.
Ответить
NeeK_Odis
29.03.16 в 18:39

0

Geek`s не бояться ИИ, они его патчят.
Ответить
Roman89
29.03.16 в 19:57

0

А меня в возможности создания ИИ больше пугает то, что как только он научится самосовершенствоватся, никто не будет понимать как он устроен. А при том что он будет делать любую интеллектуальную работу лучше и дешевле людей — люди могут потерять интерес к такой работе. Как результат мы будем иметь что-то вроде неподвластного пониманию божества, несколько «жрецов» которые могут хоть как-то объяснить его действия остальным 95% людей, что бы те вдруг не пошли на него с факелами и вилами в приступе религиозного фанатизма.
Ответить

xirahai
29.03.16 в 22:24

0

Когда начали распространяться счетные калькуляторы, которые даже без программирования — тоже кое-где была паника на тему куда девать огромный штат высоко квалифицированных кадров. Со временем всё утряслось, и уж точно не стало хуже… А насчет ЭВМ так вообще слово в слово — думали на весь мир пяток машин достаточно. Но оказалось вона как… Большая часть населения не понимает как они работают, тем не менее используют вовсю и не парятся.
Ответить
Tanyku
05.04.16 в 12:20

0

Вы человек причастный к программированию и компьютеру, понимаете как всё работает и устроено.
А существуют люди, которые верят в "богоподобность" машин и это не старики, а молодое поколение. Тобишь, считают, что компьютер им талант и интеллект прибавит, стоит лишь нажать на кнопочку.
Вы по комментариям смотрите как-то однобоко, будто все хотят саморазвития и уже априори умные. Хотя цель нашего мозга — сократить энергетические расходы, и у кого-то это получается лучше (это не к вам относится =).
Ответить
ggka
29.03.16 в 20:46

0

Меня вот не пугает, восстание машин по типу «Терминатор». Больше беспокоит замещение человеческого труда роботизированным.
Да, робот это всего лишь инструмент, но этот инструмент все больше вытесняет человечески труд. Если бы мы жили в более совершенном мире, то можно было бы только порадоваться, тому, что человечество освобождается от труда и приближается к всеобщему благосостоянию и процветанию. Но ресурсы нашей планеты исчерпаемы, технологии несовершенны, социальное неравенство никто не отменял. А потому существует опасность, что плодами роботизации будут пользоваться лишь привилегированные слои. Для остальных же роботизация не сулит в ближайшем будущем ничего хорошего. Ресурсы уже по сути не принадлежат населению Земли, с чего бы вдруг те кому они по факту принадлежат расщедрились и начали раздавать безработному населению.
Возможно эту проблему успеют решить, например освоением космоса, либо более эффективным использованием ресурсов. Посмотрим…
Ответить
earl911
30.03.16 в 12:26

0

Такого «восстания машин» точно не будет, это не рационально, для такого высокого разума. Скорее это будет похоже на миг. Вот вы живете и бац вы уже чья-то марионетка, вас «перепрошили» на выполнение нужных задач или просто уничтожили. Противостоять этому будет невозможно…
П.С. Разве что если сделать шляпу из фольги =))
Ответить
scifix
30.03.16 в 08:27

0

Меня в ИИ больше пугает, что его не смогут создать в ближайшем будущем. начать писать статьи на эту тему чтоли)
Ответить
strlock
30.03.16 в 09:30

0

Главное не называть созданный человеком интеллект искусственным, а то может обидеться и убить всех за расизм)
Ответить
earl911
30.03.16 в 12:19

0

Говорят, что когда-то на Земле жили боги, и где же они сейчас? Это я тем, кто считает себя «венцом творения»…
Ответить
say1
30.03.16 в 13:08

0

Чтобы ответить на Ваш вопрос, надо понять — как появились эти "боги" на нашей планете. С какой целью они пришли, с какой целью нас создали. И кстати, хорошо бы ответить на вопрос, кого мы считаем "богами, жившими на когда-то на Земле"? Напр., если рассмотреть ту самую пирамиду, можно ли сказать, что ее построили "боги"? Или нельзя? А если можно, не получилось ли так, что те технологии — безвозвратно утеряны и забыты, но все таки построили ее обычные человеки? Или же вообще пирамиду построили люди, но той техники уже нет? Или есть, но мы ее никак не найдем? :) Вы сами что вкладываете в понятие "богов, которые жили"?
Ответить

Darth_Biomech
30.03.16 в 15:20

0

А ещё говорят, что Атлантида правда-правда существовала.
Ответить
earl911
31.03.16 в 08:48

0

Еще говорят что уровень мирового океана постоянно-постоянно растет.
Ответить
michael_vostrikov
30.03.16 в 21:40

0

Почитал комментарии. Такое ощущение, что для многих искусственный интеллект это волшебная палочка, которая «оно само как-то работает».

Настоящий искусственный интеллект это полный аналог естественного интеллекта, с возможностью влиять на отдельные процессы и параметры. Цель его создания — получить помощников. Помощников, которые смогут выполнять задачи аналогично человеку, но которых при этом можно полностью контролировать, и которым для функционирования не нужно ничего, кроме электричества.

«Полный аналог» означает, что в некоторой ситуации ИИ будет поступать так же, как поступил бы человек, будет анализировать данные по таким же принципам, как это делает человек, неважно эффективнее или нет. Это не математический алгоритм, который ищет корреляции в наборе чисел.

Для создания ИИ нужно знать принципы анализа данных, принципы взаимодействия нейронов. Поэтому если конкретный экземпляр ИИ начнет себя вести странно или непредсказуемо, можно взять отладчик, найти причину и исправить. В случае с биологическим интеллектом это сделать невозможно.

Для обучения ИИ человеческим ценностям можно специально ввести эмоции, любую эмоцию вполне можно эмулировать отдельным счетчиком уровня этой эмоции с положительной или отрицательной связью. Для выполнения конкретных задач часть эмоций можно отключить, установившиеся нейронные связи между понятиями никуда не исчезнут.

Поэтому ИИ это не волшебная палочка, у него есть свои законы функционирования. Также есть законы физики, которые никакой интеллект обойти не в состоянии, ни искусственный, ни естественный.
Изображение

dyvniy M
Автор темы, Администратор
Администратор
Аватара
dyvniy M
Автор темы, Администратор
Администратор
Возраст: 41
Репутация: 1
Лояльность: 1
Сообщения: 3579
Зарегистрирован: Ср, 10 октября 2012
С нами: 11 лет 5 месяцев
Профессия: Программист
Откуда: Россия, Москва
ICQ Сайт Skype ВКонтакте

#24 dyvniy » Вт, 3 октября 2017, 16:04:45

фантастика про роботов
http://samlib.ru/t/troickaja_a_w/cerebrum.shtml
с дополнением законов Азимова
Изображение


Название раздела: Технокалипсис
Описание: Новости науки и техники. Всё то, о чём раньше Вы могли только мечтать. Магия современности.

Быстрый ответ


Введите код в точности так, как вы его видите. Регистр символов не имеет значения.
Код подтверждения
:) ;) :hihi: :P :hah: :haha: :angel: :( :st: :_( :cool: 8-| :beee: :ham: :rrr: :grr: :* :secret: :stupid: :music: Ещё смайлики…
   

Вернуться в «Технокалипсис»

Кто сейчас на форуме (по активности за 15 минут)

Сейчас этот раздел просматривают: 9 гостей