Роботы: война неизбежна или Роботы: мир и дружба

Роботы: война неизбежна
19
Нейтральная
сторона
9
Роботы: мир и дружба
45
Прежде чем писать комментарии или выбрать сторону вы должны авторизироваться!

02-06-2009 15:35 +1

Не люблю когда что-то думает за меня.

4 комментария
zgmrussia 02-06-2009 19:10 +1

mikenerevarin, сегодня за вас думает ТВ :(

Вам внушили мысль о том что роботы захватят мир, через такие фильмы как Терминатор Ж(((

mikenerevari… 02-06-2009 19:16 0

zgmrussia, У меня нет телевизора.

TUROK 05-06-2009 16:05 +1

mikenerevarin, Так роботы ж не думают

unel 05-06-2009 16:07 -2

TUROK, роботы - не думают, ИИ - думает (по определению)

02-06-2009 15:41 +1

Тока в случаи изобритение ИИ,хотя в играх уже есть ИИ!

1 комментарий
unel 02-06-2009 17:59 0

Vlados, шутить изволите? оО

02-06-2009 16:07 -1

офк роботы захватят вселенную

я буду ихним предводителем

3 комментария
unel 02-06-2009 18:06 +1

su6j, ты не нужен роботам. им похуй)

su6j 02-06-2009 19:04 0

unel, нет без меня они не догадаются

unel 05-06-2009 02:11 0

su6j, не догадаются, что ты им не нужен? =)

02-06-2009 16:22 0

Искуственный интеллект - следующий этап в эволюции. И, безусловно, он вытеснит сегодняшнюю вершину энергетической цепи.

4 комментария
unel 02-06-2009 18:06 0

Sxgsx, эволючии чего? =)

metzler 02-06-2009 18:23 +3

unel, Ха-ха-ха. На-ив-ный че-ло-век.

Sxgsx 02-06-2009 19:29 0

unel, Эволюции жизни.

unel 05-06-2009 02:21 0

metzler, 0x441 430 43c 20 434 443 440 430 43a

02-06-2009 16:26 +1

СКАЙНЕТ ЗАХВАТИТ МИР!!!

2 комментария
zgmrussia 02-06-2009 19:15 0

paleno1810, Многие люди опасаются захвата власти умными машинами,

однако, ещё не было ни единого случая, чтобы машины намеревались причинить кому-то зло. (К несчастью, подобного нельзя сказать о человеке). Люди, не машины, используют нервнопаралитический газ и

ракеты для разрушения. Даже автомобильные аварии и

авиакатастрофы в большинстве случаев вызваны человеческой

ошибкой, а отнюдь не механическими недостатками.

Многие люди боятся быстрого технологического развития, в

особенности автоматизированных и компьютеризированных машин,

заменяющих человека. Справедливости ради следует признать, что некоторые из этих страхов оправданы внутри монетарной системы, где

быстрый рост производственных технологий требует меньшего числа работников.

Некоторые относятся с недоверием к компьютеризации общества и боятся возможных отказов техники. Они обеспокоены тем, что якобы,

технологии сделают нас похожими на роботов, приведут к

однообразию, и, в результате, к потере индивидуальности, свободы выбора и частной жизни.

Защищаясь от машин, эти люди не предоставляют свидетельств

того, что машины когда-либо обращались против человека сами по себе, кроме как в научной фантастике. Люди программируют машины

и определяют их назначение. Поэтому нам следует бояться не машин, а неправильного их использования, угрожающего человечеству. Мы не

должны забывать, что бомбёжка городов, применение газов, ядов,лагерей смерти и пыток - всё это дело рук человека, а не машин. Даже атомное оружие и управляемые ракеты были изобретены и использовались людьми. Люди загрязняют окружающую среду - наш

воздух, океаны и реки. Продажа и употребление вредных наркотиков,искажение правды, фанатизм и расовая ненависть - это части ущербных человеческих систем и ложных идеологий, что вряд ли

характерно для машин.

Опасность не в машинах, а в нас самих. До тех пор, пока мы не возьмём на себя ответственность за отношения друг с другом, и за

разумное управление ресурсами нашей планеты, мы так и останемся величайшей угрозой сами себе и всему живому. Если и были когда-то конфликты между людьми и машинами, то мы знаем, кто их начал!

Наука и технологии не создали ни одной из наших проблем. Наши

проблемы выросли из человеческого злоупотребления и эксплуатации других людей, окружающей среды, и технологий. В более гуманной

цивилизации, машины используются для сокращения рабочего дня, увеличения доступности изделий и услуг, и продления отдыха. Новые

технологии применяются, чтобы поднять уровень жизни для каждого, и,исходя из этого, рост внедрения автоматизированных технологий служит на благо людей.(с)

metzler 02-06-2009 19:21 0

paleno1810, Можете процитировать весь "Zeitgeist".

02-06-2009 18:33 0

где грань между искуственным интеллектом и сознанием? роботы вполне могут обрести сознание и решить, что люди им не нужны

2 комментария
bFree 02-06-2009 19:58 0

sk1e, Ваш чайник на кухне с тем же успехом может приобрести сознание и решить, что вы ему не нужны.

metzler 02-06-2009 22:09 0

sk1e, Ну вот. А кто же тогда будет работать на тяжелых и опасных работах? Зачем же уничтожать людей?

03-06-2009 10:46 0

Конечно война - у роботов в будущем будет сознание как и у человека. И искусственный мозг будет(который уже сейчас пытаются моделировать на суперкомпьютерах - это только начало^_^).

Здесь инфа про искусственный мозг.

1 комментарий
ev.gen.ii 03-06-2009 10:49 0

ev.gen.ii, Захотят повоевать с людьми - повоюют.

05-06-2009 02:09 0

Неужели правда можно думать, что люди не встроят в роботов систему защиты ?

10 комментариев
unel 05-06-2009 02:10 -1

shumilovro, она может выйти из строя

shumilovro 05-06-2009 15:21 0

unel, врядли.

unel 05-06-2009 15:30 -1

shumilovro, почему? вон, на АЭС тоже мега-рульная система защиты, а взять Чернобыль? Коллайдер тоже защищён, а опять сломался. Хорошо хоть не взорвал что-нибудь)

Samowar 05-06-2009 15:34 0

unel, Чернобыль - человеческий фактор. Утюг тоже опасен, если на лицо положить

unel 05-06-2009 15:41 +1

Samowar, согласен. а что исключает вмешание человеческого фактора в сбой системы защиты в ИИ? может, даже, специально...

(c)XKCD

Samowar 05-06-2009 15:43 0

unel, Ну должны же люди когда-то поумнеть. По крайней мере, предусмотреть способы, которыми можно остановить свое детище.

(Примечание: ты страничку растянул. Неудобно теперь)

unel 05-06-2009 15:50 +1

Samowar, и получится как в матрице/ани-матрице =) всего не предусмотреть) единственный способ предусмотреть это - не создавать. но это нереально - интересно ведь! это такая задача для настоящего человека! это слава! ну и т.д.

(уже ничего не могу поделать, коммент низя редактировать =()

JetP1lot 05-06-2009 17:48 +1

unel, катастроффа на ЧАЭС полностью и целиком произошла по вине людей!

вопиющие не соблюдения правил безопасности при проведении экспериментов. Защита была и даже не смотря на то что реакторы типа РБМК-1000 были разработаны за 30 лет до катастрофы АЭС смогла бы своими силами предотвратить аварию!

(помнится вы мне про ресайз намекали? ^^)

unel 05-06-2009 19:22 +1

JetP1lot, блин. ещё раз. всё равно по какой причине произошла катастрофа. факт - она произошла. отсюда следует вывод: по вине людей она может произойти вновь, если человек намеренно или неумышленно - без разницы - нарушит естественную программу защиты

JetP1lot 05-06-2009 19:57 0

unel, есть системы защиты защиты)

сори за бред но обьяснить сложно

05-06-2009 18:10 0

Человек пытается сейчас создать совершенный искуственный интелект, когда его зделают он захочет больше информации,власти, и добиться этого он будет пытаться естественно не мирным путем(кто даст влась, ёпт машине) да не кто, и в пример вам фильм терминатор)

16 комментариев
JetP1lot 05-06-2009 18:14 +1

Decoy, Терминатор - фантастический фильм! даже не около научный!

Samowar 05-06-2009 18:32 0

Decoy, У ИИ нет желаний

Sxgsx 05-06-2009 18:43 0

Samowar, Желания - это черта людей. Результат биологических процессов. У ИИ есть цели. И этого более чем достаточно.

Samowar 05-06-2009 18:45 0

Sxgsx, Он сам ставит себе цели?

Sxgsx 05-06-2009 23:43 0

Samowar, Иначе это не ИИ, а обыденная программа.

bFree 05-06-2009 23:47 +1

Sxgsx, он ставит себе цели в рамках своих возможностей и условий.

Sxgsx 06-06-2009 01:01 +1

bFree, Как и человек.

JetP1lot 06-06-2009 01:04 +1

Sxgsx, Человек имеет чувства, интуицию (не всегда верную), азарт и прочие вещи которых не будет у АИ. и не надо твердить что этому его научат.

Sxgsx 06-06-2009 01:43 0

JetP1lot, Так зачем ему этому учить? Чувства - это мотивация для человека. Зачем машине мотивация? Она просто добивается поставленной цели. Зачем нужна интуиция, если машине не сложно лишний раз обратиться к логике (хотя те же нейронные сети фактически работают на интуиции). Азарт? На кой чёрт он нужен? Он людям-то мешает.

JetP1lot 06-06-2009 02:39 +1

Sxgsx, ну собственно по этому машина никогда не захочет больше власти, не будет мстить или пытаться добиться чего то через трупы жалких людишек

Sxgsx 06-06-2009 03:13 0

JetP1lot, Почему же? Она вполне может поставить себе такую же цель как и у всего живого: развиваться и размножаться. И рано или поздно люди станут мешаться на этом пути развития.

Samowar 06-06-2009 03:16 0

Sxgsx, Люди не сами себе поставили эту цель. Это инстинкт. Условие жизни.

Sxgsx 06-06-2009 03:32 0

Samowar, Нет. Это смысл жизни. А инстинкт - уже его следствие.

Samowar 06-06-2009 03:38 0

Sxgsx, Роботы не живые

Sxgsx 06-06-2009 05:40 0

Samowar, Перефразирую: смысл существования.

Vlados 06-06-2009 10:41 +1

Decoy, Терминатор не правильный пример там скайп сама сёбя создала! а вот я робот вот это хороший пример1

02-06-2009 15:29 +4

Ну что за глупости хоть раз робот причинял боль человеку.

9 комментариев
Jester 02-06-2009 15:29 0

Ulyxa, +1, роботы работают на алгоритме человека, а ИИ вымыслы!

Cyxapb 02-06-2009 15:39 0

Jester, Некоторые футурологи прогнозируют появление первого ИИ в году так 35. С этим событием связывают так называемую технологическую сингулярность, которая может наступить. Поживем, увидим =)

Jester 02-06-2009 15:49 0

Cyxapb, мы не доживем... ведь в 2012 конец света обещают))))))))))))))

unel 02-06-2009 18:04 0

Jester, то, что роботы работают на алгоритмах человека, вовсе не означает, что они не могут его убить

su6j 02-06-2009 19:06 0

Ulyxa, да конвейры отрубали пальца и ладони

но мы то спишем это на случайность мол роботы тут не причём

JetP1lot 05-06-2009 01:41 +1

su6j, по вине не соблюдения техники безопасности людьми

unel 05-06-2009 02:01 -1

JetP1lot, откуда такая уверенность?.. кто-то получил пизды от гопо-быдла, просто пройдя мимо - тоже, несоблюдение техники безопасности (нефиг мимо быдлогопов ходить), а какова будет техника безопасности при работе с роботом, обладающим ИИ?...

JetP1lot 05-06-2009 02:33 +1

unel, а в вашем представлении кровожадные конвееры носились за людьми люто бешено жаждя отрубить им пальцы/кисти/руки?

unel 05-06-2009 02:36 0

JetP1lot, а вы так и не поняли? это кровожадные конвейеры запудрили вам мозг! =))

02-06-2009 15:37 +3

обладатели Фаерфокса, пишите в строку адреса "about:robots" и не бойтесь их:)

3 комментария
mikenerevari… 02-06-2009 15:40 0

vanhoot, Айзек Азимов нас спасёт. =)

Jester 02-06-2009 15:51 0

vanhoot, ха, улыбнуло

leprechaun 02-06-2009 16:13 0

vanhoot, Фуух,все страхи исчезли... =)

02-06-2009 16:24 +2

Ничего ИИ не вытеснит. Программа - на то и программа, что кроме алгоритма ничего не может выполнять. О какой-либо самообучаемости можно говорить тоже только в рамках этого алгоритма.

12 комментариев
unel 02-06-2009 18:05 0

bFree, ну, если она будет иметь свойство самомодификации, то кто может сказать, что к концу она перестанет быть той программой, которой её сделали вначале?..

Vlados 02-06-2009 18:16 +1

bFree, посмотри фильм я робот!

bFree 02-06-2009 19:57 0

unel, Ок, вы писали программы? Опишите на пальцах пример самомодификации?

bFree 02-06-2009 19:57 0

Vlados, Посмотрел, здорово. Что из этого?

Vlados 02-06-2009 20:35 +1

bFree, там пример,развитее машин

Cyxapb 02-06-2009 20:57 -1

Vlados, Раскрою тебе секрет: это был художественный фильм.

bFree 02-06-2009 22:36 0

Vlados, Вы, наверное, в джедаи пойдете, да?

unel 05-06-2009 16:03 0

bFree,  

import sys

Requiem = """

import sys

print "HUMANS MUST DIE!!!!!"

"""

I = open("II.py","w+")

print("hello, world!")

I.write(Requiem)

I.close()

я думаю, что вы понимаете, что вместо безобидного принта может быть что угодно, и что строку Requiem можно сгенерировать как угодно и откуда угодно.

Так, это программа при первом запуске напишет hello world, а при следующих запусках она будет не столь дружелюбна)

программа на питоне, заменяющая свой код (Файл II.py - это файл самой программы)

Samowar 05-06-2009 16:04 0

unel, Ты слишком увлекаешься Футурамой, по-моему.

bFree 05-06-2009 16:40 +1

unel, я думаю, что вы понимаете, что создание ИИ требует значительно более сложных алгоритмов, чем ваш пример, и создать такую программу просто физически невозможно. Что говорить про ее отладку

unel 05-06-2009 16:49 0

bFree, блин. вы просили показать принцип самомодификации - я показал. КОНЕЧНО! создание ИИ требует сложнейших алгоритмов, учитывающих множество факторов и т.п. но факт остаётся открытым: если создать ИИ, и снабдить её средствами взаимодействия с окружающей средой и получения новой информации, то хрен ты её проконтролируешь, если она сама этого не захочет - это будет как отдельное существо. спор-то не в том, возможен ИИ или нет, а в том, какие будут отношения с ним после создания оного

bFree 05-06-2009 17:38 +1

unel, Проконтролируешь. Это программа.

02-06-2009 18:27 0

Честно говоря, не понимаю, как можно дружить с роботами. До настоящего искусственного интеллекта еще очень далеко.

А пока вижу только одну возможную угрозу от роботов - применение их для войны людьми.

3 комментария
metzler 02-06-2009 18:39 +1

Zudwa, На самом деле искусственный интеллект ближе, чем кажется. Уже 30 лет глубоко под землей в штате Аризона ведутся секретные разработки. Регистрировалось даже несколько случаев побега альфа-версий роботов. Один из них не так давно дважды избирался президентом Соединенных Штатов.

Zudwa 02-06-2009 18:48 +1

metzler, Ага, а у меня в институте был препод с кличкой "Андроид" :)

metzler 02-06-2009 19:09 0

Zudwa, А у нашего фамилия была Безфамильный. Неудивительно, что его звали Noname.

02-06-2009 19:11 -2

Ключевым фактором в достижении изобилия и высокого уровня жизни для каждого человека является автоматизация, т. е. выполнение как можно большего количества операций в кратчайший срок. Заменив

человеческий труд на труд машин и внедрив ресурсо-ориентированную экономику, каждый человек будет жить намного лучше, чем самые

богатые люди живут сегодня. Будущее без замков и дверей, без страха, что кто-нибудь ударит тебя по голове, чтобы украсть твои вещи или

деньги, потому что каждый будет иметь свободный доступ ко всему, что будет существовать на тот момент. А доступным будет многое,

благодаря автоматизации и разумному использованию ресурсов.

Кибернетизация, слияние компьютеров с производством, наладит выпуск такого количества изделий и услуг, какого никогда ещё не было.

Большой объём работы предстоит над искусственным интеллектом (ИИ). ИИ - это компьютерно запрограммированная самообучающаяся машина, имитирующая человеческое принятие решений и тестирование гипотез. ИИ модернизирует механические и электронные системы с тем, чтобы имитировать и совершенствовать человеческую

работу. Мы уже стоим на пороге внедрения в жизнь таких захватывающих разработок.

Но кибернетизация может расцениваться, как единственная прокламация освобождения человечества только тогда, когда

используется разумно и гуманно. Она предоставляет людям возможность достичь высочайшего уровня жизни практически без собственного труда. Прежде всего, это высвободит людей от рутины

ежедневных однообразных будней. Когда человечество освободится от устаревшей системы монетарного порядка, лишь тогда мы, наконец,

поймём, что значит быть цивилизованными.

Когда мы начнём более широко применять автоматизацию и

кибернетизацию, то не только промышленные рабочие, но и

большинство профессионалов могут быть заменены машинами. Даже сегодня наиболее дальновидные писатели и футуристы принимают такую, трудную на первый взгляд, перспективу замены роботами хирургов, инженеров, управленцев, пилотов и других специалистов.

Роботы с лёгкостью смогут заменить людей в правительстве и управлении мировыми процессами. Это вовсе не означает превосходство робота над человеком, как некоторые считают.

Постепенная передача принятия решений искусственному интеллекту

является следующей фазой социальной эволюции.

Компьютеризированные системы намного эффективнее человека,

благодаря большому количеству различных сенсоров. Автоматический

контроль возможен в том случае, если сенсоры установлены в любом

доступном уголке земного шара и связаны со всемирной

компьютерной сетью.

При переходе от денежного к ресурсо-ориентированному

обществу, понадобятся группы системных инженеров, программистов, системных аналитиков, исследователей и прочих схожих специальностей, для контроля, управления и анализа потока изделий и

услуг. Однако, т. к. ресурсо-ориентированное общество движется к всевозрастающей кибернетизации мира, большое количество людей не потребуется для управления и обслуживания развивающейся

цивилизации. Со временем компьютеры будут в состоянии

самостоятельно разрабатывать свои программы, совершенствовать и

исправлять свои схемы и обновлять данные о потребительских нуждах.

Кибер-центры с внутренними каналами связи координируют сферу услуг, транспортную систему, здравоохранение и образование в соответствии с новейшими данными мировой экономики.

Дублирующие системы будут созданы на случай сбоя основной системы.

ИИ, организованый подобным образом, в условиях ресурсо-

ориентированной экономики приведёт к более значимым изменениям жизни человеческой расы, чем все предыдущие прорывы в науке,

философские учения или революции. Наиболее значительным будет тот

момент, когда мы поймём, что всё, что необходимо современному обществу с его вопиющими недостатками - это разумное управление

ресурсами Земли, и что большую часть проблем можно решить,широко применяя наши технологии.

Вследствие этого, будет достигнут невообразимый сегодня уровень жизни для каждого из нас, это случится, когда ресурсы планеты станут взаимосвязаны, организованы, управляемы и эффективно использованы на благо каждого человека на Земле, а не только на благо маленькой

группировки людей.(с)

1 комментарий
sumkinzxs 02-06-2009 19:52 +3

zgmrussia, А ты свои аргументы придумывай , вместо того чтобы с интернета страничку копировать и вставить.

02-06-2009 19:50 +1

Какая на хрен война с роботами?!!Хватит смотреть терминатора.

8 комментариев
su6j 02-06-2009 23:41 0

sumkinzxs, нужно трезво смотреть в будущее

evgenii1988 03-06-2009 10:38 -1

sumkinzxs, Роботы будущего будут обладать человекоподобным сознанием - будут такими же как и человек.

Здесь инфа про ИИ будущего.

Sponge 05-06-2009 15:40 0

sumkinzxs, Все смотрели ТЕРМИНАТОРА !!! Раз роботы будут как человек дак и войну они смогут обявить !!!!

Samowar 05-06-2009 15:41 0

Sponge, Как человек, они не будут

Sponge 05-06-2009 15:47 +1

sumkinzxs, но написано со всем наоборот

sumkinzxs: Роботы будущего будут обладать человекоподобным сознанием - будут такими же как и человек.

Здесь инфа про ИИ будущего.

Sponge 05-06-2009 15:47 0

sumkinzxs, ето ж не Я написал )))

Samowar 05-06-2009 15:53 0

Sponge, Для человека, как ни крути, главная цель - сохранение вида. У роботов вряд ли будут инстинкты самосохранения, желание урвать кусок пожирнее, и прочее

Sponge 05-06-2009 15:59 0

sumkinzxs, Ну етож искуственный интелект смотрит на поведение человека и учица "как урвать кусок пожирнее"

04-06-2009 21:15 0

робот не способен ничего придумать, он может выполнять только заданный алгоритм

1 комментарий
Sxgsx 04-06-2009 22:32 0

Samowar, http://www.membrana.ru/print.html?1075141200

05-06-2009 02:35 +1

Первое правило робототехники - не причини вред человеку

37 комментариев
Sxgsx 05-06-2009 02:46 +1

JetP1lot, Правила созданы что бы их нарушать.

JetP1lot 05-06-2009 02:54 +1

Sxgsx, rly? вы чтонибуть смыслите в программировании? машина должна и будет любой ценой избежать причинения вреда человеку, а если это не возможно, то свести его к минимуму.

Sxgsx 05-06-2009 12:00 0

JetP1lot, А вы в курсе что на таких "жёстких" программах ИИ не создать?

bFree 05-06-2009 13:07 +1

JetP1lot, Создавая ИИ, мы в любом случае создаем программу, какой бы сложной она не была, поэтому мы можем ввести любые условия для существования такой программы

unel 05-06-2009 14:37 0

JetP1lot, а если непричинение вреда одному человеку понесёт причинение вреда другому? например, робот держит на прицеле убийцу, который держит на прицеле хозяина - что же, директива отменяется?...

unel 05-06-2009 14:38 0

bFree, создавая ИИ, мы создаём программу, имеющую возможность к самообучению, к самомодификации. То, что создано будт меняться. И в какую сторону и как оно поменяется - это уж науке неизвестно. А жёсткий алгоритм для ИИ действительно не годится. Это тогда не ИИ, а хрень какая-то

Sponge 05-06-2009 15:40 0

JetP1lot, МУЖИК пересотрел "Я робот "

bFree 05-06-2009 16:43 0

unel, вы сами написали, что создаете программу, поэтому можно органичить что угодно.

Sxgsx 05-06-2009 16:52 0

bFree, А как насчёт нейронных сетей?

unel 05-06-2009 17:11 0

bFree, я? не создаю) люди создают, программисты =) ограничить можно, но это так же, как и отрезать человеку руки-ноги, вырвать язык, выколоть глаза и проткнуть уши, короче лишить человека всех органов восприятия информации и передачи, а оставить только способность думать - думаю, это имеет мало смысла.

bFree 05-06-2009 17:41 +1

unel, ничуть. есть такое понятие, как константа. Если примитизировать, то ей вполне может быть фраза "не трожь человека".

Я не специалист по нейронным сетям, ничего сказать не могу.

mikenerevari… 05-06-2009 18:50 0

bFree, Боюсь что в нейронных сетях такое может не прокатить.

unel 05-06-2009 19:20 0

bFree, понимаете, если у механизма есть возможность переписать себя, то они вполне может избавиться от этих констант, если сочтёт это необходимым... нет возможности переписать себя? можно написать "ребёнка", в котором уже не будет констант...

bFree 05-06-2009 19:27 0

unel, А как вы научите машину переписывать себя? Мне кажется, что это возможно только заранее продумав этот алгоритм, пускай он будет очень сложный, но это опять алгоритм.

unel 05-06-2009 19:29 0

bFree, а почему именно я должен её учить? ИИ - это механизм в том числе и с самообучением, вот научит её какой-то гик тому, что она - программа, научит языку программирования на котором она написана, вот она и начнёт себя по-всякому апдейтить и патчить

bFree 05-06-2009 19:31 0

unel, А что в вашем понимании самообучение? Не сравнивайте ИИ с человеческим мозгом, мы пока не дошли до этого и не скоро дойдем.

Вот перед вами вычислительное ведро. Задача: всунуть в него самообучаемость. Как это возможно сделать?

Даже наш мозг с вами работает оп определенным алгоритмам. Вас с детства учат алгоритмам: как почистить зубы, как перейти дорогу, как разговаривать.

PS: мне интересно, пишите еще :))

PS2: Хватит минусовать unel, на то он и холивар, чтобы спорить

Samowar 05-06-2009 19:31 0

unel, Я думаю, репродукцию им "запретят" в первую очередь

unel 05-06-2009 19:37 -1

Samowar, по опыту человека - то, что нам больше запрещают, к тому мы больше стремимся. машина может подговорить человека например, написать код. Да и как ты ей запретишь это? будешь думать, что она рисует картинку, а она бамс, переименует png в exe (утрированно) и запустит =)

unel 05-06-2009 19:41 0

bFree, вот в том-то и дело, что ИИ пытаются построить на основе человеческого мозга, с помощью нейронных сетей.

+ в том и смысл ИИ, чтобы запрограммировать Интеллект человека Искусственным путём (то бишь сэмулировать, например, програмно)

bFree 05-06-2009 19:44 0

unel, Это да, но в том то и дело, что програмно, поэтому я сторонник ограничений, которые попросту необходимы, если мы хотим дать чему-либо неживому какую-никакую свободу.

А вообще это очень филоссовский вопрос. Что будет с обществом? Стоит ли считатать ИИ живым существом или нет? Вот где настоящий вопрос.

unel 05-06-2009 19:51 0

bFree, понимаете. вот есть программы - не ИИ - просто программы, а есть их ошибки, есть же, нечто ни разу не сталкивались? Ну вот, а есть ещё "злые дядьки" (хакеры) которые эти ошибки не просто вызывают, но и эксплуатируют (т.н. программы-эксплойты, шелл-код и т.п.). Есть вирусы, которые как минимум изменяют и себя (чтобы укрыться от антивируса) и ту программу, которую инфицируют (чтобы при запуске программы запустился и вирус)

если ИИ та же программа, то и всё это на неё распространяется)

Samowar 05-06-2009 19:52 0

unel, И часто твой компьютер так делает?

unel 05-06-2009 19:53 0

Samowar, как? ошибается? бывает

Samowar 05-06-2009 19:53 0

unel, В таком случае, твои противники - не машины, а "злые дядьки"

Samowar 05-06-2009 19:54 0

unel, Нет, сознательно причиняет тебе (и себе) вред

bFree 05-06-2009 19:54 +1

unel, Это вы к ненадежности роботов будущего и возможности их перепрограммировать? )

Да, нет такой защиты, которую нельзя было бы обойти, но с другой стороны можно сделать обход защиты бессмысленным делом.

unel 05-06-2009 19:55 0

Samowar, это да. но всё дело в том, что после действий злых дядек, ИИ так же может стать моим противником =)

unel 05-06-2009 19:56 0

bFree, поясните, я не совсем вас понял

bFree 05-06-2009 19:56 0

Samowar, ну, компьютер не имеет свободы. Мы все же говорим о роботе, которй может передвигаться и контактировать с человеком.

unel 05-06-2009 19:57 0

Samowar, ну вот смотрите ... набираешь какую-нибудь работу долго-долого ... и вдруг бам! ошибка, документ не сохранён, время потеряно.. вред? вред. .. идёт дефрагментация диска, вдруг бам! ошибка, комп виснет вообще или уходит в перезагрузку. диски побиты, информация утеряна. вред? вред

unel 05-06-2009 19:58 0

bFree, можно сказать так: пока мы считаем, что компьютер - "мозг" робота, со всеми вытекающими

bFree 05-06-2009 19:59 0

unel, Можно представлять себе ИИ в виде робота, как постом выше, тогда выход из по контроля действительно несет угрозу. Но зачем материализировать? ИИ может использоватся для прогнозов, вычислений и научных работ. Тут уже тяжело говорить о вреде.

unel 05-06-2009 20:03 -1

bFree, можно использовать, но захочет ли ИИ Вам подчиняться? не надоест ли ему это дело? и (тут простор для фантастов) у него будут по-любому какая-то связь с внешним миром - перенёсся куда-нибудь, потом заразил стиральную машину, пылесос, мобильник и пошла-поехала) даже информационными действиями можно натворить оё-ёй как много бед,а учитывая, что сейчас любят компьютеризировать все системы (больницы, запус ракет, электростанции) - тут вообще страшно подумать, что натворить можно

bFree 05-06-2009 20:07 +1

unel, То, что пока существует, подчиняется. Но повторюсь, это программа. Программа всегда содержит условия, будь то нейронная сеть или обычные алгоритмы. ИИ может жить в отведенном для него информационном пространстве. А слушатся будет по определению :)

Samowar 05-06-2009 20:11 0

bFree, Они не шибко умнее компьютеров, суть та же

Samowar 05-06-2009 20:12 0

unel, У него нет желаний

bFree 05-06-2009 20:16 0

Samowar, 2all: а мне хочется спросить: вы WALL-E смотрели? Вот пример того, чего не будет

05-06-2009 23:49 +1

Я за позитиФ так,что роботы вы мои друзья!=)

1 комментарий
metzler 06-06-2009 08:41 0

SorokinaDaria, Не подлизывайся