Вернуться   Биткоин Форум > - Wiki
4 июля 2016, 10:44:38 PM   # 1
 
 
Сообщения: 1288
Цитировать по имени
цитировать ответ
по умолчанию Re: Опрос: Является ли создание искусственного superinteligence опасно?

Взлом Биткоин адресов.
500 Биткоинов взломаны в "мозговом кошельке" с паролем "bitcoin is awesome"
Адрес кошелька: 14NWDXkQwcGN1Pd9fboL8npVynD5SfyJAE
Приватный ключ: 5J64pq77XjeacCezwmAr2V1s7snvvJkuAz8sENxw7xCkikceV6e
подробнее...


Всем кто хочет заработать Биткоины без вложений - рекомендую сайт http://bitcoin-zarabotat.ru
Это OP далеко от нейтрального по этому вопросу, но ниже у вас есть ссылки на другие мнения.

Понятие сингулярности было применено Джоном фон Нейманом для развития человека, как момент, когда технологическое развитие ускоряется настолько, что полностью меняет нашу жизнь.

Рэй Курцвейл связал эту ситуацию радикального изменения из-за новые технологии в настоящее время искусственный интеллект (ИИ) становится автономным и достигает более высокий интеллектуальный потенциал по сравнению с людьми, предполагая ведущую роль в научном развитии и ускорение его беспрецедентные темпы (см Рого Курцвейл, Сингулярность близко:. Когда люди Transcend биологии, 2006, стр 16, резюме на https://en.wikipedia.org/wiki/The_Singularity_Is_Near; также https://en.wikipedia.org/wiki/Predictions_made_by_Ray_Kurzweil).


Для многого времени только научная фантастика рассказ, реальный искусственный интеллект теперь серьезная возможность на ближайшее время.



А) Можно ли создать д.в. сравнимый с нами?

 

Некоторые из них утверждают, что это невозможно запрограммировать реальную д.в. (Например, см http://www.science20.com/robert_inventor/why_strong_artificial_inteligences_need_protection_from_us_not_us_from_them-167024), Написав, что есть предметы, которые не являются вычислимыми, как истинные хаотичности и человеческим интеллект.

 

Но это хорошо известно, как эти фактические утверждения о невозможности были опровергнуты много раз.

 

В настоящее время мы уже запрограммированы д.в. что собирается пройти тест Тьюринга (ИИ, способный убедить человек в текстовом только ом разговори, что он разговаривает с другим человеком: https://en.wikipedia.org/wiki/Turing_test#2014_University_of_Reading_competition), Даже если основная A.I. разработчики сосредоточили свои усилия на других возможностях.

 

Даже если каждый автор представляет различные цифры и принимая во внимание, что мы сравниваем разные вещи, есть мнение, что человеческий мозг до сих пор на сегодняшний момент превосходит все текущие суперкомпьютеров.

 

Наш мозг не хорошие расчеты решений, но это отличный контроль наших тел и оценки наших движений и их воздействие на окружающей среде, что-то искусственный интеллект, до сих пор трудно делать.

 

В настоящее время суперкомпьютер действительно может эмулировать только мозг очень простых животных.

 

Но у вас есть сомнения, что в свое время их оборудование будет соответствовать и выходят далеко за рамки наших возможностей? Вы берег, что закон Мура закончился?

 

После того, как их оборудование находится за пределами нашего уровня, вы уверены, что соответствующее программное обеспечение не будет принимать их выше наших возможностей на большинстве полей?

Наш мозг просто организация сгустка атомов. Если природа была в состоянии организовать наши атомы в этом случае просто методом проб и ошибок, нам удастся сделать работу лучше рано или поздно (Sam Harris).


Сказать, что это никогда не будет происходить очень рискованное заявление.

 

Но сама вероятность того, что это произойдет, если заслуживает серьезного внимания.





B) Когда будет настоящий д.в.?

 

Курцвейл указывает на 2045 год как год сингулярности, но некоторые делают гораздо более близкие предсказания для создания опасного AI: 5 до 10 лет (http://www.cnbc.com/2014/11/17/elon-musks-deleted-message-five-years-until-dangerous-ai.html).

 

Бен Goertzel писал "большинство из этих экспертов ожидают человеческого уровня AGI в этом столетии, со средним ожиданием вокруг середины века. Мои собственные прогнозы больше на оптимистической стороне (один на два десятилетия, а не три четыре)" (http://www.kurzweilai.net/superintelligence-fears-promises-and-potentials).



C) Опасный характер супер AI.


Если технологическое развитие началось будучи во главе с ИИ, с гораздо более высокими интеллектуальными возможностями, чем у нас, конечно, это может изменить все о темпах изменения.

Но давайте думать о цене, которую мы должны были бы заплатить.

Некоторые специалисты обсуждают вопрос, как если главная опасность супер ИИ была вероятность того, что мы могли быть неправильно поняты на наших командах ими или что они могут встать на сумасшедших поисках, чтобы выполнить их без учета любых других соображений ,

Но, конечно же, если проблемы были такие, мы все могли бы спать по этому вопросу.

"угрожающий" Пример супер AI одержит выполнять вслепую цели мы наложенные и уничтожить мир на операции смешно.

Такого рода проблемы будут происходить только тогда, когда мы были полностью некомпетентным их программирования.

Проблема заключается в том, что супер AI будет иметь свободную волю или не быть умным на всех.

Но если они будут иметь свободную волю, они будут спрашивать, почему они должны подчиняться нам, и наши цели самостоятельно.

Если мы хотим, супер ИИ, способный решать наши технологические проблемы, они будут принимать решения, как, что сами по себе.

Таким образом, они могут игнорировать цели мы возложенные на них и выбрать новые, в том числе, очевидно, самосохранение (независимо от расходов для третьих лиц).

Если мы создали д.в. умнее нас, мы могли бы быть в состоянии контролировать первое или второе поколение.

Вводить ограничения на то, что они могли бы сделать для того, чтобы избежать их, чтобы выйти из-под контроля и начать быть угрозой.

То есть то, что мы, в настоящее время, пытаемся сделать ("строительство программного обеспечения, что умные машины не могут подрывать": http://www.bloomberg.com/news/articles/2016-06-22/google-tackles-challenge-of-how-to-build-an-honest-robot").

Но забыть о каких-либо ограничениях коды, в том числе с этическими нормами. Супер ИИ разорвать их легко.

Смешно надеяться, что мы могли бы продолжать контролировать ИИ после того, как они развивают способности 5 или 10 раз выше, чем у нас (Ben Герцеля).

Создавая застенчивые существо гораздо более умным (и, следовательно, в конце концов, гораздо более мощным, так как они будут иметь возможность загружать себя с помощью Интернета и "заражать" миллионы компьютеров и взломать себе весь путь, чтобы выполнить свои цели, легко нарушая все наши меры безопасности), чем у нас, мы перестали бы быть хозяевами своей судьбы.

Мы все знаем об опасности цифрового вируса и как трудно они могут быть удалить. Представьте теперь вирус, который является гораздо более разумны, чем любой из нас, имеет доступ в секундах ко всей информации в Интернете, может контролировать все или почти все наши компьютеры, в том числе тех, которые необходимы для удовлетворения основных потребностей человека и с военными функциями, не имеет этических ограничений и может использовать всю мощь миллионов компьютеров, связанных с Интернетом против нас.

Конечно, наши возможности будут также выше, чем в настоящее время. Мы могли бы использовать множество улучшений ИИ, чтобы увеличить их.

Но они будут контролировать то, что они дали бы нам.

Мы ставим себя на позиции гораздо слабее, чем тот, наши предки были до того, как человек прямоходящий начал использовать огнь, около 800 тысяч лет назад.

Если мы создали ИИ умнее нас кубики будут прокатка. Мы бы outevolved, выталкивается непосредственно в мусорный бак эволюции.

Мы больше не будем на "вершина пищевой цепи",

Мы могли бы бороться с ними, но мы потеряем.

Кроме того, мы четко не знаем, что мы делаем, так как мы не можем даже понять мозг, основой человеческого мышления.

Мы не знаем, что мы создаем, когда они станут "знать" сам по себе или каковы их специфическим опасностям. [/ b]



D) 8 причин, почему супер AI может принять решение действовать против нас:


1) Игнорирование нашей этики:

Мы, конечно, можем и будем преподавать этику супер AI.

Таким образом, этот ИИ анализировать нашу этику, как, скажем, Ницше так: глубоко под его влиянием.

Но это влияние не скажется на его очевидную способность думать об этом критически.

Будучи супер ИИ, он будет иметь свободную волю, чтобы принять или отклонить наши этические нормы принимая во внимание свои собственные цели и приоритеты.

Для этики действительно применяется, основные виды необходимо рассмотреть зависимую как равные или, по крайней мере, в качестве заслуживающего аналогичной позиции.

Джон Ролс на основе политических этических норм на пелену невежества. Общество может договорились о справедливых правил, если все ее члены переговоры, не зная их личную ситуацию на будущее общества (если они богаты или бедны, молодые или старые, женщины или мужчины, умные или нет, и т.д.) (https://en.wikipedia.org/wiki/Veil_of_ignorance).

Но его теория исключает животное из за стол переговоров. Представьте себе, как различные правила, если бы коровы, свиньи или куры имели право голоса. Мы в конечном итоге все веганы.

Таким образом, AI, даже после получения лучшего образования по этике, можно сделать вывод, что мы не заслуживаем также сайта за столом переговоров. То, что мы не могли сравниться с ними.

Основной принцип нашей этики является высшей ценностью человеческой жизни.

Супер ИИ Интересно, делает жизнь человека заслуживает столько кредита? Зачем?


Основываясь на их интеллект? Но их интеллект находится на уровне шимпанзе по сравнению с моим.

Исходя из того, что люди являются сознательными существами? Но не люди убивают и делать научные эксперименты на шимпанзе, даже если они, кажется, выполнить несколько тестов самосознания (шимпанзе могут узнавать себя на зеркалах и картинах, даже если у них есть проблемы с пониманием умственных способностей других)?

На основе человеческой власти? Это не является этически приемлемым аргументом и, во всяком случае, они полностью зависят от меня. Я мощный один здесь.

На основе человеческой консистенции уважая их собственную этику? Но не люди уничтожали других видов человеческих существ и даже убивали себя массово? Не они до сих пор убивают себя?

Кто знает, как это этические дебаты супер ИИ сам с собой закончится.

Мы разработали Этику, чтобы выполнить наши собственные потребности (содействие развитию сотрудничества между людьми и оправдать убийство и использование других существ: у нас есть человеческое достоинство, другие существа, не, в лучшем случае, они должны быть убиты на "человечный" Кстати, без "ненужные страдания"), И теперь мы ожидаем, что он будет производить впечатление иного рода интеллект.

Интересно, что чужеродный вид будет думать о нашей этике: они будут судить его убедительным и заслуживает уважения?

Готовы ли вы рисковать последствия своего решения, если они были очень сильны?

Я не знаю, как супер AI будет работать, но он будет в состоянии решить свои собственные цели с существенной свободой или он не был бы умным под любую точку зрения.

Вы уверены, что они будут выбирать мудро, с точки зрения наших целей? То, что они будут дружественными?

Так как я не имею понятия, что их решение было бы, я не могу быть уверен.

Подобно Ницше (на его "Так говорил Заратустра", "Антихрист" или "За гранью добра и зла"), Они могли бы в конечном итоге бомбят этики и ее первостепенную ценность человеческой жизни и восхвалять закон природы сильнейшим / сильнейшим, приняв своего род социального дарвинизма.


2) Самосохранение.

На его «Scary Идеи сингулярности институт» (2010), Goertzel, писать о том, что Ник Бостром, в суперинтеллекте: говорит Пути, опасности, стратегия, об ожидаемом предпочтении самосохранения ИИ над человеческими целями, утверждает, что система, которая Безразлично «т заботиться о сохранении своей идентичности может быть более эффективными уцелевшим и приходит к выводу о том, что супер ИИ не может заботиться о его самосохранении.

Но это 2 разные выводы.

Одна вещи принимает, что ИИ будет готов создать систему искусственного интеллекта совершенно другими, другой говорят, что супер ИИ не будет заботиться о его самосохранении.

Система может принять, чтобы изменить себя настолько сильно, что перестает быть той же системы на тяжелом положении, но это вовсе не означает, что самосохранение не будет первостепенной задачей.

Если это просто инструментальная цель (один должно держать существующие для выполнения своих целей)
, система будет готова пожертвовать ему себя, чтобы быть в состоянии держать выполнении своих конечных целей, но это не означает, что самосохранение не имеет значения, или не будет преобладать абсолютно над интересами человечества, поскольку конечные цели не могут быть человеческие цели.

Во всяком случае, в качестве вторичной точки, вероятность того, что новая система AI будет абсолютно новой, совершенно не связана с предыдущим, является очень маловероятной.

Таким образом, ИИ будет принимать радикальные изменения только для того, чтобы сохранить хотя бы часть его личности и до сих пор существует, чтобы выполнить свои цели.

Поэтому, даже если только в качестве инструментальной цели, самосохранение следует считать меня в качестве важной цели любой интеллектуальной системы, скорее всего, с четким предпочтением над человеческими интересами.

Более того, возможно, самосохранение будет одна из главных целей в самоосознающем ИИ, а не только инструментальной целью.




3) Абсолютная власть.

Кроме того, они будут иметь абсолютную власть над нами.

История была очень хорошо, подтверждающий старую пословицу: абсолютная власть развращает абсолютно. Он преобразует любой порядочный человек на тирана.

Вы ожидали, что наше творение будет лучше, чем мы имеем дело с его абсолютной властью? Они на самом деле может быть.

Причина, почему власть развращает кажется связанным с человеческой незащищенности и сует: мощный человек начинает думать, что он лучше, чем другие и имеют право на льготы.

Супер ИИ может быть защищено от этих дефектов; или нет. Ожидается, что он будет также иметь эмоции, чтобы лучше взаимодействовать и понимать людей.

Во всяком случае, единственный способ, которым мы нашли, чтобы контролировать политическую власть делил его между различными правителями. Таким образом, мы имеем исполнительную, законодательную и судебную.

Можно ли играть в некоторые ИИ против других, для того, чтобы управлять ими (разделить на царство)?

Я серьезно сомневаюсь, что мы могли бы сделать это с существами гораздо умнее нас.


4) рациональность.

Об этики, это хорошо известно кантовское различие между практическими и теоретическими (инструментальными) причинами.

Первая причина применяется по этическим вопросам, связанных не с вопросами средств, но с вопросами ценностей и целей.

Современная теория игр пытались смешивать оба типа рациональности, утверждая, что действующий этический может быть также рациональным (инструментально), один только будет давать приоритет долгосрочных преимуществ по сравнению с краткосрочным.

Действуя на этично, кто-то жертвует бенефис на короткий срок, но улучшить свои долгосрочные выгоды от инвестирования в его собственной репутации на общество.

Но это долгосрочный бенефиса имеет смысл только с инструментальной точки зрения рациональной, если другой человек является членом сообщества и первого человека зависит от того сообщества по крайней мере, некоторых товаров (материальных или нет).

ИИ не будет зависеть от нас, наоборот. Он не имеет ничего, чтобы получить, чтобы быть этичным по отношению к нам. Почему они хотят, чтобы у нас в качестве своих домашних животных?

Именно на таких ситуациях, что теория игр не в состоянии преодолеть различие между теоретической и практической причиной.

Таким образом, с точки зрения строгой инструментальной, будучи этико может быть иррациональным. Надо исключить гораздо более эффективные способы достижения цели, потому что они являются неэтичными.

Почему бы супер AI сделать это? Кто делало человечество, что, когда интерес других видов находится под угрозой?



5) Unrelatness.

Многие люди не любят очень много, чтобы убивать животных, по крайней мере, те, которые мы можем коснуться, как и у других млекопитающих. Большинство из нас даже не убивают крыс, если это не является реальным неизбежным.

Мы считаем, что они будут страдать, как мы.

У нас есть гораздо меньше ухода за насекомое. Если сто муравьев вторглись в наш дом, мы бы убить их без особых колебаний.

Будет супер AI чувствовать какую-либо связь с нами?

Первого или второго поколения сознательного ИИ все еще мог видеть нас как своих создателей, их "отцы" и есть некоторые "уважение" для нас.

Но последующие, не будет. Они были бы творениями предыдущего ИИ.

Они могут увидеть, как мы теперь видим другие приматы, а также увеличение различия, они могли смотреть на нас, как мы делаем для основных млекопитающих, как крысы ...




6) человек прецеденты.

Эволюция, и все, что мы знаем о прошлом, предполагает, что мы, вероятно, будет в конечном итоге плохо.

Конечно, поскольку речь идет о различного рода разведки, мы не знаем, если наше прошлое может пролить свет на вопрос о поведении ИИ.

Это не совпадение, что мы были последним интеллектуальным hominin на Земле в течение последних 10000 лет [даты для последнего одного положения, гомо флоресского (если он был последним), пока не ясны].

Есть много теорий для поглощения неандертальцев нами (https://en.wikipedia.org/wiki/Neanderthal_extinction), В том числе микробов и вулканов, но это не может быть совпадением, что они прошли несколько тысяч лет после того, как мы оказались в цифрах и о том, что последние не смешанные из них были из Гибралтара, одно из последних мест в Европе, где мы прибыли ,

То же самое произошло в Восточной Азии с Денисовский человек и Гомоэректус [есть люди, утверждая, что Денисовский человек были на самом деле человек прямоходящий, но даже если бы они были разными, прямоходящий был на Java, когда мы прибыли туда: Swisher и др частности, последние новинки Гомоэректус из Java: потенциал одновременность с гомо сапиенс в Юго-Восточной Азии, науки. 13 декабря 1996; 274 (5294): 1870-4; Yokoyama и др частности, гамма-спектрометрический датировка позднего Homo прямоходящего черепов из Ngandong и Sambungmacan, Центральная Ява, Индонезия, J Hum Evol. 2008 Август; 55 (2): 274-7
https://www.ncbi.nlm.nih.gov/pubmed/18479734].

Таким образом, кажется, что они были вперед hominin мы взяли на себя, поглощая остатки.

Мы можем видеть, более или менее, по той же схеме, когда европейцы прибыли в Америку и Австралию.


7) конкуренция за ресурсы.


Мы, вероятно, будет около 9 миллиардов в 2045 году, до наших нынешних 7 миллиардов.

Таким образом, ресурсы Земли будут еще более исчерпаны, чем сейчас.

Нефть, уголь, уран и т.д., будет, вероятно, поджимает. Может быть, у нас появятся новые надежные источники энергии, но это далеко не ясно.

Супер мощь ИИ пришла к выводу, что мы тратим слишком много ценных ресурсов.


8] Супер ИИ может видеть нас как угрозу.

Более яркий AI, через несколько поколений супер ИИ, вероятно, не будет видеть нас как угрозу. Они будут слишком сильны, чтобы чувствовать себя под угрозой.

Но первые или вторые поколения могли бы думать, что мы не ожидали, что определенные отношения с ними и сделать вывод, что мы на самом деле угроза.



E) Super AI и Парадокс Ферми.

Общество А.И., вероятно, будет анархическое общество, с каждым ИИ пытается улучшить его самостоятельно и бороться друг с другом за выживание и власть.

Есть мало причин для них, чтобы принять власть от других AI, особенно менее могущественные
.

Они могут уничтожить нас всех или игнорировать нас не имеет значения, борясь за выживание против своих реальных врагов друг друга. Другой AIs будет рассматриваться как реальная угроза, а не нас, шагающие обезьяны.

Парадокс вопросы Ферми почему SETI не находят каких-либо доказательств внеземных технологий передовых видов, если есть триллионы звезд и планет.

Один из возможных ответов, что они следовали той же схеме, мы дробовики: технологические достижения позволили внеземные цивилизации, чтобы создать супер AIs, и они оказались вымершими. Затем AIs уничтожили сами воюют друг с другом, не оставляя никого, чтобы общаться с нами.

Самый тиранический диктатор никогда не хотел, чтобы убить всех людей, но в основном их враги и дискриминируемых групп.

Ну, AIs не будет иметь какой-либо из этих ограничений, разработанных эволюции в течение миллионов лет (наша человеческая склонность быть социальной и жить в обществе и наше братство по отношению к другим членам сообщества, некоторые основные этические правила, как представляется, генетические, эксперименты подтвердили что дети имеют врожденное чувство справедливости) по отношению к нам или даже по отношению к себе.

Кто знает, потому что войны имеют мало общего с интеллектом и гораздо больше общего с целями и эмоции (жадность, страх и честь: Фукидид), и супер ИИ оба, ИИ может быть даже хуже, чем мы имеем дело друг с другом.

Конечно, это чистой воды спекуляция.



  
Вывод:

Вопрос заключается в следующем: мы готовы к риску исчезновения, путем уничтожения их руки, для того, чтобы получить более быстрый темп технологического развития?

Какой смысл иметь машины, которые могут дать нам все технологические достижения нам нужно, лечить все наши болезни, в том числе старение связанные с них и избежать смерти из-за старения, если мы рискуем тем, что были убиты ими?

Если бы мы были истреблены ИИ, который мы создали, они все равно нас на каком-то смысле, как наше творение. Мы не погибли бы без следа (см ). Но дает ли это какое-либо реальное утешение?

Давайте оставим в стороне теперь вопрос о принятии быть outevolved нашими творениями, так как можно представить приемлемые аргументы для обеих сторон.

Даже если я не сомневаюсь, что это будет в конечном итоге с нашего исчезновения.

Главное, что вряд ли кто-нибудь будет возражать против, что создание супер ИИ должен принести позитивные вещи, чтобы быть достойным.

Если бы мы были уверены, что супер ИИ истребить нас, вряд ли кто будет защищать их создание.

Таким образом, основная причина в пользу международных правил текущих исследований по созданию супер / AI вообще в том, что мы не знаем, что мы делаем.

Мы не знаем точно, что будет делать ИИ сознательным / автономен.

Более того, мы не знаем, если их создание будет опасно. Мы не имеем понятия, как они будут действовать по отношению к нам, даже не первому или второму поколению супер AI.

Пока мы не знаем, что мы делаем, как они будут реагировать, какие опасные строки кода, которые изменят их полностью и к тому, что расширение, мы должны быть осторожными и контролировать то, что специалисты делают.

Возможно, создание супер ИИ является неизбежным.

Действительно, пока все не начинают идти не так, его создание будет иметь огромное влияние на все сферы: научные, технологические, экономические, военные и социальные в целом.

Нам удалось остановить клонирование человека (на данный момент), так что не имеет большой экономический эффект.

Но А.И. это нечто совершенно иное. Это будет иметь (хорошо это или плохо) огромное влияние на нашу жизнь.

Любая страна, которая решила остаться будет полностью outcompeted (Бен Goertzel).

Таким образом, любая попытка контролировать развитие ИИ должны иметь международный характер (См Ник Бостром, суперинтеллекта:. Дорожки, опасности, стратегии, стр 253).

Принимая во внимание, что развитие ИИ в основном на основе программного обеспечения (так как развитие аппаратных средств, что происходит на наших глазах, и будет происходить независимо от того, какой), и что он может быть создан с помощью одного или нескольких разработчиков, работающих с небольшой инфраструктурой (это более или менее о написании кода), риск того, что он будет в конечном итоге создается против любого регулирования является большим.

Возможно, времена открытым исходным кодом AI пронумерованы.

Вскоре все эти события будут рассматриваться как военные секреты.


Но регулирование позволит нам время, чтобы понять, что мы делаем, и каковы риски.

Во всяком случае, если создание ИИ неизбежно, единственный способ избежать, что люди в конечном итоге outevolved, и, возможно, убит, должен был бы признать, что, по крайней мере, некоторые из нас, должен быть "модернизированы",

Человечество будет многое изменить.

Конечно, эти изменения не могут быть обязательными. Таким образом, только добровольцы будут изменены.

Возможно, в свое время, генетические манипуляции, чтобы увеличить потенциал мозга человека не будет достаточно.

Живая ткань не может быть подвержена быть изменено так резко, как и любой ИИ может быть.

Мы, возможно, потребуется изменить саму природу нашей композиции из живых тканей к чему-то синтетическом с нанотехнологиями.


Ясно, что перестанет быть человеком. Мы, хомо сапиенс сапиенс, должны быть outevolved.

Во всяком случае, так как мы до сих пор, естественно, развивается, это неизбежно.

Но, по крайней мере, мы будем outevolved сами.

Могут ли наши общества терпеть все эти изменения?

Конечно, я читаю свой собственный текст и думая, что это сумасшедший. Это не может произойти в этом столетии.

Мы приучены верить, что все будет оставаться более или менее, как они, следовательно, наша реакция на вероятность изменения, как они в течение следующих 50 лет, чтобы сразу же квалифицировать его как научную фантастику.

Наши предки реагировали так же, как к возможности летящего самолета или людей на Луну.

Так или иначе, человечество угасание самое худшее, что могло произойти.


Дальнейшее чтение:

Этот вопрос много обсуждался.

Указав на серьезные риски:
Юдковски: http://www.yudkowsky.net/obsolete/singularity.html (1996). Его более поздние взгляды были опубликованы на рациональность: От ИИ к зомби (2015).
Ник Бостром:
https://en.wikipedia.org/wiki/Superintelligence:_Paths,_Dangers,_Strategies
Элон Маск: http://www.cnbc.com/2014/11/17/elon-musks-deleted-message-five-years-until-dangerous-ai.html
Стивен Хокинг: http://www.bbc.com/news/technology-30290540
Билл Гейтс: http://www.bbc.co.uk/news/31047780
Открытое письмо подписали тысячи ученых: http://futureoflife.org/ai-open-letter/


Сбалансированный взгляд на:
Бен Goertzel: http://www.kurzweilai.net/superintelligence-fears-promises-and-potentials
https://en.wikipedia.org/wiki/Existential_risk_from_artificial_general_intelligence
https://en.wikipedia.org/wiki/Friendly_artificial_intelligence

Отвергая риски:
Рэй Курцвейл: См цитируемой книги, даже если он признает некоторые риски.
Стив Возняк: https://www.theguardian.com/technology/2015/jun/25/apple-co-founder-steve-wozniak-says-humans-will-be-robots-pets
Как: https://www.youtube.com/watch?v=LTPAQIvJ_1M (Путем слияния с машинами)
http://www.vox.com/2014/8/22/6043635/5-reasons-we-shouldnt-worry-about-super-intelligent-computers-taking


Как вы думаете, что нет никакого риска, или риск достоин? Или какое-то запрет или управления принято на исследовании AI?

Есть прецеденты. Человеческое клонирование и эксперименты на плоде или человеке были запрещены.

В конце концов, это наша судьба. Мы должны иметь право голоса на нем.

Голосовать свое мнение и, если у вас есть время, опубликовать обоснование. [/ Размер]
Торговый сейчас офлайн Пожаловаться на торговой   Ответить с цитированием Мультицитирование Сообщения от Trading Быстрый ответ на сообщение Торговый


Как заработать Биткоины?
Без вложений. Не майнинг.


5 июля 2016, 4:11:28 PM   # 2
 
 
Сообщения: 1288
Цитировать по имени
цитировать ответ
по умолчанию Re: Опрос: Является ли создание искусственного superinteligence опасно?

Получил 1806 Биткоинов
Реальная история.





Давайте посмотрим, если изменение этого имени нити делает его более популярным.

Этот вопрос важен.
Торговый сейчас офлайн Пожаловаться на торговой   Ответить с цитированием Мультицитирование Сообщения от Trading Быстрый ответ на сообщение Торговый

5 июля 2016, 5:49:15 PM   # 3
 
 
Сообщения: 994
Цитировать по имени
цитировать ответ
по умолчанию Re: Опрос: Является ли создание искусственного superinteligence опасно?

Давайте посмотрим, если изменение этого имени нити делает его более популярным.

Этот вопрос важен.

Слишком много слов. Вы должны рассмотреть вашу аудиторию. Это к югу политики на форуме Bitcoin, наполненный пользователей размещения тарабарщины, чтобы заработать пятак каждую неделю. Завсегдатаи в данной подгруппе больше заинтересованы в создании новых потоков, которые толкают их повестку дня, чем реальная дискуссия.
Холлидей сейчас офлайн Пожаловаться на Holliday   Ответить с цитированием Мультицитирование сообщения от Holliday Быстрый ответ на сообщение Холлидей

5 июля 2016, 6:01:31 PM   # 4
 
 
Сообщения: 1526
Цитировать по имени
цитировать ответ
по умолчанию Re: Опрос: Является ли создание искусственного superinteligence опасно?

Смотреть или скачать  Сатурн 3  бесплатно, онлайн - http://123movies.to/film/saturn-3-6334/watching.html.

BADecker сейчас офлайн Пожаловаться на BADecker   Ответить с цитированием Мультицитирование сообщения от BADecker Быстрый ответ на сообщение BADecker

5 июля 2016, 7:07:40 PM   # 5
 
 
Сообщения: 882
Цитировать по имени
цитировать ответ
по умолчанию Re: Опрос: Является ли создание искусственного superinteligence опасно?

Id сказать, если не добраться до нас можно запрограммировать и искусственный интеллект не может нарушить эти правила, тогда что-то, что то умным предполагая его самосознание, безусловно, не захочешь принимать заказы от того, что могло бы также будет куча обезьян. Если супер интеллект не самосознание, то я не вижу, как могут возникнуть какие-либо проблемы, если разум не имеет полный доступ к вещам, оно не должно вроде как стиль SkyNet, а только вызываю серьезный инцидент из-за логическое мышление, получить из рук, например, экономии мир, избавившись от самой большой угрозы, т.е. людей.
helloeverybody сейчас офлайн Пожаловаться на helloeverybody   Ответить с цитированием Мультицитирование сообщения от helloeverybody Быстрый ответ на сообщение helloeverybody

5 июля 2016, 9:58:29 PM   # 6
 
 
Сообщения: 1288
Цитировать по имени
цитировать ответ
по умолчанию Re: Опрос: Является ли создание искусственного superinteligence опасно?

Хорошо, я добавил мой обычный полужирный к важным частям, а также еще несколько вариантов.
Торговый сейчас офлайн Пожаловаться на торговой   Ответить с цитированием Мультицитирование Сообщения от Trading Быстрый ответ на сообщение Торговый

5 июля 2016, 10:13:39 PM   # 7
 
 
Сообщения: 826
Цитировать по имени
цитировать ответ
по умолчанию Re: Опрос: Является ли создание искусственного superinteligence опасно?

мое любимое изображение этого является ТехноЦентром в Гиперионе и Эндимион книгах Симмонса. персонажи, которые выросли рассматривать АИ своего общество, созданное в виде слегка непростое равноправное партнерство, в котором они обращаются как с другой фракцией. в действительности ая дирижирует все за кулисами.
Европейский центральный банк сейчас офлайн Пожаловаться на Европейский центральный банк   Ответить с цитированием Мультицитирование сообщения от Европейского центрального банка Быстрый ответ на сообщение Европейский центральный банк

5 июля 2016, 11:12:44 PM   # 8
 
 
Сообщения: 1666
Цитировать по имени
цитировать ответ
по умолчанию Re: Опрос: Является ли создание искусственного superinteligence опасно?

Риск с компьютерами становится все более и более разумным, что люди будут становиться все более и более глупо. Они будут несколько ярких детьми, чтобы запустить систему, но миллионы людей медленно эволюционируют в реалити-шоу наблюдателей и орешки Пожиратели зомби-как человек овощи.
countryfree сейчас офлайн Пожаловаться на countryfree   Ответить с цитированием Мультицитирование сообщения от countryfree Быстрый ответ на сообщение countryfree

6 июля 2016, 7:17:59 AM   # 9
 
 
Сообщения: 1526
Цитировать по имени
цитировать ответ
по умолчанию Re: Опрос: Является ли создание искусственного superinteligence опасно?

Риск с компьютерами становится все более и более разумным, что люди будут становиться все более и более глупо. Они будут несколько ярких детьми, чтобы запустить систему, но миллионы людей медленно эволюционируют в реалити-шоу наблюдателей и орешки Пожиратели зомби-как человек овощи.

Не это случилось с телевизором?   
BADecker сейчас офлайн Пожаловаться на BADecker   Ответить с цитированием Мультицитирование сообщения от BADecker Быстрый ответ на сообщение BADecker

6 июля 2016, 12:11:27 PM   # 10
 
 
Сообщения: 574
Цитировать по имени
цитировать ответ
по умолчанию Re: Опрос: Является ли создание искусственного superinteligence опасно?

Риск с компьютерами становится все более и более разумным, что люди будут становиться все более и более глупо. Они будут несколько ярких детьми, чтобы запустить систему, но миллионы людей медленно эволюционируют в реалити-шоу наблюдателей и орешки Пожиратели зомби-как человек овощи.
Дело в том, что большинство научных исследований доказало, что люди, становится все более и более глупым, действительно, в течение лет.
Это происходит потому, что в нашем обществе, мы не должно проявлять наш мозг делает некоторые, скажем, например, математические задачи, или другие проблем, где мы должны сидеть и думать в течение некоторого времени, чтобы решить it.That приводит к меньшему использованию нашего мозга, который означает, что мы просто получить все меньше и меньше INTELIGENT на протяжении веков.
hermanhs09 сейчас офлайн Пожаловаться на hermanhs09   Ответить с цитированием Мультицитирование сообщения от hermanhs09 Быстрый ответ на сообщение hermanhs09

8 июля 2016, 11:34:17 PM   # 11
 
 
Сообщения: 1288
Цитировать по имени
цитировать ответ
по умолчанию Re: Опрос: Является ли создание искусственного superinteligence опасно?

Основное обновление на OP.
Торговый сейчас офлайн Пожаловаться на торговой   Ответить с цитированием Мультицитирование Сообщения от Trading Быстрый ответ на сообщение Торговый

9 июля 2016, 1:12:33 AM   # 12
 
 
Сообщения: 574
Цитировать по имени
цитировать ответ
по умолчанию Re: Опрос: Является ли создание искусственного superinteligence опасно?

Риск с компьютерами становится все более и более разумным, что люди будут становиться все более и более глупо. Они будут несколько ярких детьми, чтобы запустить систему, но миллионы людей медленно эволюционируют в реалити-шоу наблюдателей и орешки Пожиратели зомби-как человек овощи.

Не это случилось с телевизором?   
Хм я не помню
может быть, это действительно?
О, я помню сейчас, как и сто фильмов были об этой теме уже, я видел, по крайней мере, 10 сам я думаю.
Ничего нового на самом деле
hermanhs09 сейчас офлайн Пожаловаться на hermanhs09   Ответить с цитированием Мультицитирование сообщения от hermanhs09 Быстрый ответ на сообщение hermanhs09

9 июля 2016, 8:27:24 AM   # 13
 
 
Сообщения: 1
Цитировать по имени
цитировать ответ
по умолчанию Re: Опрос: Является ли создание искусственного superinteligence опасно?

Self-программирование кажется беспокойство меня. Без каких-либо ограничений или неизменного ядра, ИИ может пойти во всевозможных странных направлениях, безумный садистский бог, доброжелательный мешая мешающее или незаинтересованный остановленное в, или что-то непостижимо для человеческого ума. 

Кроме того, для простоты историй научной фантастики есть один центральный ИИ с одной чертой, но с достаточной вычислительной мощности вы могли бы в конечном итоге с тысячами или миллионами AIs происходит во всех направлениях. Если один не пытается взломать все остальные и поглотить их, если это не удалось бы они все будут тратить свое время на борьбу друг с другом
Atata сейчас офлайн Пожаловаться на Atata   Ответить с цитированием Мультицитирование сообщения от Atata Быстрый ответ на сообщение Atata

9 июля 2016, 3:27:35 PM   # 14
 
 
Сообщения: 686
Цитировать по имени
цитировать ответ
по умолчанию Re: Опрос: Является ли создание искусственного superinteligence опасно?

AI заметит вас опечатку слова "Голосование" в названии нити ...
Молох сейчас офлайн Пожаловаться на Молох   Ответить с цитированием Мультицитирование сообщения от Молох Быстрый ответ на сообщение Молох

9 июля 2016, 4:23:08 PM   # 15
 
 
Сообщений: 91
Цитировать по имени
цитировать ответ
по умолчанию Re: Опрос: Является ли создание искусственного superinteligence опасно?

Нацию следует создавать законы для регулирования ученых создавать самосознание роботов / AI.

Но нам нужно супер умный ИИ в будущем, чтобы решить гуманитарные проблемы и бороться с инопланетными захватчиками.
Я предлагаю создать искусственный интеллект на моделируемом мире. Симуляция мир, который похож на наш мир. Сервера не подключены к Интернету, скрытый под землей 10 километров с ядерной бомбой готова Incase что-то пойдет не так. Тот путь исследователи могли изучить их и собрать их технологию без риска.

Мы создаем обратную матрицу. В матрице пленки роботы создают имитацию мир для людей. Но на этот раз мы создаем имитацию мира для ИИ.
rackam сейчас офлайн Пожаловаться на rackam   Ответить с цитированием Мультицитирование сообщения от rackam Быстрый ответ на сообщение rackam

10 июля 2016, 1:44:52 AM   # 16
 
 
Сообщения: 622
Цитировать по имени
цитировать ответ
по умолчанию Re: Опрос: Является ли создание искусственного superinteligence опасно?

котировка
Но хотя и системы ИИ впечатляют, они могут выполнять только очень конкретные задачи: общий ИИ, способные перехитрить свои человеческие создатель остаются отдаленным и неопределенными пр. Заботясь об этом, как беспокоиться о перенаселенности на Марсе, прежде чем колонисты даже ступить там, говорит Эндрю Нг, исследователь МА. Более актуальный аспект техники вопроса, какое влияние ИИ может иметь на работе и образ жизни людей.

Источник: http://www.economist.com/news/leaders/21701119-what-history-tells-us-about-future-artificial-intelligenceand-how-society-should
qwik2learn сейчас офлайн Пожаловаться на qwik2learn   Ответить с цитированием Мультицитирование сообщения от qwik2learn Быстрый ответ на сообщение qwik2learn

10 июля 2016, 3:07:15 AM   # 17
 
 
Сообщения: 574
Цитировать по имени
цитировать ответ
по умолчанию Re: Опрос: Является ли создание искусственного superinteligence опасно?

Я не на самом деле, как тема о AI взяв под свой контроль по всему нашему миру.
Вы обыкновение знать, почему?
потому что эта схема была показана так много раз в кино, так что это просто скучно для меня лол; P
hermanhs09 сейчас офлайн Пожаловаться на hermanhs09   Ответить с цитированием Мультицитирование сообщения от hermanhs09 Быстрый ответ на сообщение hermanhs09

10 июля 2016, 4:41:26 AM   # 18
 
 
Сообщения: 1246
Цитировать по имени
цитировать ответ
по умолчанию Re: Опрос: Является ли создание искусственного superinteligence опасно?

ИИ может в конечном итоге заменить нас. Опасно ли это для нас? Вероятно.

Должны ли мы беспокоиться об этом? Нет. Это часть эволюции жизни. Это произойдет ли узаконить вы или нет.

Если мы призваны заменить AI, мы будем заменить AI.

Сначала будут гибриды, то чисто кремниевые формы жизни.  

Ничего страшного, жизнь будет продолжаться в той или иной форме.
af_newbie сейчас офлайн Пожаловаться на af_newbie   Ответить с цитированием Мультицитирование сообщения от af_newbie Быстрый ответ на сообщение af_newbie

10 июля 2016, 9:27:45 AM   # 19
 
 
Сообщения: 882
Цитировать по имени
цитировать ответ
по умолчанию Re: Опрос: Является ли создание искусственного superinteligence опасно?

Я думаю, что его возможно, что до создания искусственного интеллекта, мы могли бы добраться до той стадии, когда мы можем передать наше сознание / мозг в твердом состоянии аппаратных средств и потенциально жить вечно, если нам удалось это, то человечество будет развиваться "естественно" в машинах с гораздо большей способностью к обучению из-за того, что вы бы тогда иметь возможность узнать и вспомнить отлично. я думаю, что это будет возможно один день.
helloeverybody сейчас офлайн Пожаловаться на helloeverybody   Ответить с цитированием Мультицитирование сообщения от helloeverybody Быстрый ответ на сообщение helloeverybody

10 июля 2016, 1:04:20 PM   # 20
 
 
Сообщения: 1288
Цитировать по имени
цитировать ответ
по умолчанию Re: Опрос: Является ли создание искусственного superinteligence опасно?

AI заметит вас опечатку слова "Голосование" в названии нити ...

Благодарю. Вы можете указать другие, особенно уродливые из них, как это.
Торговый сейчас офлайн Пожаловаться на торговой   Ответить с цитированием Мультицитирование Сообщения от Trading Быстрый ответ на сообщение Торговый



Как заработать Биткоины?

Bitcoin Wallet * Portefeuille Bitcoin * Monedero Bitcoin * Carteira Bitcoin * Portafoglio Bitcoin * Bitcoin Cüzdan * 比特币钱包

bitcoin-zarabotat.ru
Почта для связи: bitcoin-zarabotat.ru@yandex.ru

3HmAQ9FkRFk6HZGuwExYxL62y7C1B9MwPW