Это OP далеко от нейтрального по этому вопросу, но ниже у вас есть ссылки на другие мнения.
Понятие сингулярности было применено Джоном фон Нейманом для развития человека, как момент, когда технологическое развитие ускоряется настолько, что полностью меняет нашу жизнь.
Рэй Курцвейл связал эту ситуацию радикального изменения из-за новые технологии в настоящее время искусственный интеллект (ИИ) становится автономным и достигает более высокий интеллектуальный потенциал по сравнению с людьми, предполагая ведущую роль в научном развитии и ускорение его беспрецедентные темпы (см Рого Курцвейл, Сингулярность близко:. Когда люди Transcend биологии, 2006, стр 16, резюме на https://en.wikipedia.org/wiki/The_Singularity_Is_Near; также https://en.wikipedia.org/wiki/Predictions_made_by_Ray_Kurzweil).
Для многого времени только научная фантастика рассказ, реальный искусственный интеллект теперь серьезная возможность на ближайшее время.
А) Можно ли создать д.в. сравнимый с нами?
Некоторые из них утверждают, что это невозможно запрограммировать реальную д.в. (Например, см http://www.science20.com/robert_inventor/why_strong_artificial_inteligences_need_protection_from_us_not_us_from_them-167024), Написав, что есть предметы, которые не являются вычислимыми, как истинные хаотичности и человеческим интеллект.
Но это хорошо известно, как эти фактические утверждения о невозможности были опровергнуты много раз.
В настоящее время мы уже запрограммированы д.в. что собирается пройти тест Тьюринга (ИИ, способный убедить человек в текстовом только ом разговори, что он разговаривает с другим человеком: https://en.wikipedia.org/wiki/Turing_test#2014_University_of_Reading_competition), Даже если основная A.I. разработчики сосредоточили свои усилия на других возможностях.
Даже если каждый автор представляет различные цифры и принимая во внимание, что мы сравниваем разные вещи, есть мнение, что человеческий мозг до сих пор на сегодняшний момент превосходит все текущие суперкомпьютеров.
Наш мозг не хорошие расчеты решений, но это отличный контроль наших тел и оценки наших движений и их воздействие на окружающей среде, что-то искусственный интеллект, до сих пор трудно делать.
В настоящее время суперкомпьютер действительно может эмулировать только мозг очень простых животных.
Но у вас есть сомнения, что в свое время их оборудование будет соответствовать и выходят далеко за рамки наших возможностей? Вы берег, что закон Мура закончился?
После того, как их оборудование находится за пределами нашего уровня, вы уверены, что соответствующее программное обеспечение не будет принимать их выше наших возможностей на большинстве полей?
Наш мозг просто организация сгустка атомов. Если природа была в состоянии организовать наши атомы в этом случае просто методом проб и ошибок, нам удастся сделать работу лучше рано или поздно (Sam Harris).
Сказать, что это никогда не будет происходить очень рискованное заявление.
Но сама вероятность того, что это произойдет, если заслуживает серьезного внимания.
B) Когда будет настоящий д.в.?
Курцвейл указывает на 2045 год как год сингулярности, но некоторые делают гораздо более близкие предсказания для создания опасного AI: 5 до 10 лет (http://www.cnbc.com/2014/11/17/elon-musks-deleted-message-five-years-until-dangerous-ai.html).
Бен Goertzel писал "большинство из этих экспертов ожидают человеческого уровня AGI в этом столетии, со средним ожиданием вокруг середины века. Мои собственные прогнозы больше на оптимистической стороне (один на два десятилетия, а не три четыре)" (http://www.kurzweilai.net/superintelligence-fears-promises-and-potentials).
C) Опасный характер супер AI.
Если технологическое развитие началось будучи во главе с ИИ, с гораздо более высокими интеллектуальными возможностями, чем у нас, конечно, это может изменить все о темпах изменения.
Но давайте думать о цене, которую мы должны были бы заплатить.
Некоторые специалисты обсуждают вопрос, как если главная опасность супер ИИ была вероятность того, что мы могли быть неправильно поняты на наших командах ими или что они могут встать на сумасшедших поисках, чтобы выполнить их без учета любых других соображений ,
Но, конечно же, если проблемы были такие, мы все могли бы спать по этому вопросу.
"угрожающий" Пример супер AI одержит выполнять вслепую цели мы наложенные и уничтожить мир на операции смешно.
Такого рода проблемы будут происходить только тогда, когда мы были полностью некомпетентным их программирования.
Проблема заключается в том, что супер AI будет иметь свободную волю или не быть умным на всех.
Но если они будут иметь свободную волю, они будут спрашивать, почему они должны подчиняться нам, и наши цели самостоятельно.
Если мы хотим, супер ИИ, способный решать наши технологические проблемы, они будут принимать решения, как, что сами по себе.
Таким образом, они могут игнорировать цели мы возложенные на них и выбрать новые, в том числе, очевидно, самосохранение (независимо от расходов для третьих лиц).
Если мы создали д.в. умнее нас, мы могли бы быть в состоянии контролировать первое или второе поколение.
Вводить ограничения на то, что они могли бы сделать для того, чтобы избежать их, чтобы выйти из-под контроля и начать быть угрозой.
То есть то, что мы, в настоящее время, пытаемся сделать ("строительство программного обеспечения, что умные машины не могут подрывать": http://www.bloomberg.com/news/articles/2016-06-22/google-tackles-challenge-of-how-to-build-an-honest-robot").
Но забыть о каких-либо ограничениях коды, в том числе с этическими нормами. Супер ИИ разорвать их легко.
Смешно надеяться, что мы могли бы продолжать контролировать ИИ после того, как они развивают способности 5 или 10 раз выше, чем у нас (Ben Герцеля).
Создавая застенчивые существо гораздо более умным (и, следовательно, в конце концов, гораздо более мощным, так как они будут иметь возможность загружать себя с помощью Интернета и "заражать" миллионы компьютеров и взломать себе весь путь, чтобы выполнить свои цели, легко нарушая все наши меры безопасности), чем у нас, мы перестали бы быть хозяевами своей судьбы.
Мы все знаем об опасности цифрового вируса и как трудно они могут быть удалить. Представьте теперь вирус, который является гораздо более разумны, чем любой из нас, имеет доступ в секундах ко всей информации в Интернете, может контролировать все или почти все наши компьютеры, в том числе тех, которые необходимы для удовлетворения основных потребностей человека и с военными функциями, не имеет этических ограничений и может использовать всю мощь миллионов компьютеров, связанных с Интернетом против нас.
Конечно, наши возможности будут также выше, чем в настоящее время. Мы могли бы использовать множество улучшений ИИ, чтобы увеличить их.
Но они будут контролировать то, что они дали бы нам.
Мы ставим себя на позиции гораздо слабее, чем тот, наши предки были до того, как человек прямоходящий начал использовать огнь, около 800 тысяч лет назад.
Если мы создали ИИ умнее нас кубики будут прокатка. Мы бы outevolved, выталкивается непосредственно в мусорный бак эволюции.
Мы больше не будем на "вершина пищевой цепи",
Мы могли бы бороться с ними, но мы потеряем.
Кроме того, мы четко не знаем, что мы делаем, так как мы не можем даже понять мозг, основой человеческого мышления.
Мы не знаем, что мы создаем, когда они станут "знать" сам по себе или каковы их специфическим опасностям. [/ b]
D) 8 причин, почему супер AI может принять решение действовать против нас:
1) Игнорирование нашей этики:
Мы, конечно, можем и будем преподавать этику супер AI.
Таким образом, этот ИИ анализировать нашу этику, как, скажем, Ницше так: глубоко под его влиянием.
Но это влияние не скажется на его очевидную способность думать об этом критически.
Будучи супер ИИ, он будет иметь свободную волю, чтобы принять или отклонить наши этические нормы принимая во внимание свои собственные цели и приоритеты.
Для этики действительно применяется, основные виды необходимо рассмотреть зависимую как равные или, по крайней мере, в качестве заслуживающего аналогичной позиции.
Джон Ролс на основе политических этических норм на пелену невежества. Общество может договорились о справедливых правил, если все ее члены переговоры, не зная их личную ситуацию на будущее общества (если они богаты или бедны, молодые или старые, женщины или мужчины, умные или нет, и т.д.) (https://en.wikipedia.org/wiki/Veil_of_ignorance).
Но его теория исключает животное из за стол переговоров. Представьте себе, как различные правила, если бы коровы, свиньи или куры имели право голоса. Мы в конечном итоге все веганы.
Таким образом, AI, даже после получения лучшего образования по этике, можно сделать вывод, что мы не заслуживаем также сайта за столом переговоров. То, что мы не могли сравниться с ними.
Основной принцип нашей этики является высшей ценностью человеческой жизни.
Супер ИИ Интересно, делает жизнь человека заслуживает столько кредита? Зачем?
Основываясь на их интеллект? Но их интеллект находится на уровне шимпанзе по сравнению с моим.
Исходя из того, что люди являются сознательными существами? Но не люди убивают и делать научные эксперименты на шимпанзе, даже если они, кажется, выполнить несколько тестов самосознания (шимпанзе могут узнавать себя на зеркалах и картинах, даже если у них есть проблемы с пониманием умственных способностей других)?
На основе человеческой власти? Это не является этически приемлемым аргументом и, во всяком случае, они полностью зависят от меня. Я мощный один здесь.
На основе человеческой консистенции уважая их собственную этику? Но не люди уничтожали других видов человеческих существ и даже убивали себя массово? Не они до сих пор убивают себя?
Кто знает, как это этические дебаты супер ИИ сам с собой закончится.
Мы разработали Этику, чтобы выполнить наши собственные потребности (содействие развитию сотрудничества между людьми и оправдать убийство и использование других существ: у нас есть человеческое достоинство, другие существа, не, в лучшем случае, они должны быть убиты на "человечный" Кстати, без "ненужные страдания"), И теперь мы ожидаем, что он будет производить впечатление иного рода интеллект.
Интересно, что чужеродный вид будет думать о нашей этике: они будут судить его убедительным и заслуживает уважения?
Готовы ли вы рисковать последствия своего решения, если они были очень сильны?
Я не знаю, как супер AI будет работать, но он будет в состоянии решить свои собственные цели с существенной свободой или он не был бы умным под любую точку зрения.
Вы уверены, что они будут выбирать мудро, с точки зрения наших целей? То, что они будут дружественными?
Так как я не имею понятия, что их решение было бы, я не могу быть уверен.
Подобно Ницше (на его "Так говорил Заратустра", "Антихрист" или "За гранью добра и зла"), Они могли бы в конечном итоге бомбят этики и ее первостепенную ценность человеческой жизни и восхвалять закон природы сильнейшим / сильнейшим, приняв своего род социального дарвинизма.
2) Самосохранение.
На его «Scary Идеи сингулярности институт» (2010), Goertzel, писать о том, что Ник Бостром, в суперинтеллекте: говорит Пути, опасности, стратегия, об ожидаемом предпочтении самосохранения ИИ над человеческими целями, утверждает, что система, которая Безразлично «т заботиться о сохранении своей идентичности может быть более эффективными уцелевшим и приходит к выводу о том, что супер ИИ не может заботиться о его самосохранении.
Но это 2 разные выводы.
Одна вещи принимает, что ИИ будет готов создать систему искусственного интеллекта совершенно другими, другой говорят, что супер ИИ не будет заботиться о его самосохранении.
Система может принять, чтобы изменить себя настолько сильно, что перестает быть той же системы на тяжелом положении, но это вовсе не означает, что самосохранение не будет первостепенной задачей.
Если это просто инструментальная цель (один должно держать существующие для выполнения своих целей), система будет готова пожертвовать ему себя, чтобы быть в состоянии держать выполнении своих конечных целей, но это не означает, что самосохранение не имеет значения, или не будет преобладать абсолютно над интересами человечества, поскольку конечные цели не могут быть человеческие цели.
Во всяком случае, в качестве вторичной точки, вероятность того, что новая система AI будет абсолютно новой, совершенно не связана с предыдущим, является очень маловероятной.
Таким образом, ИИ будет принимать радикальные изменения только для того, чтобы сохранить хотя бы часть его личности и до сих пор существует, чтобы выполнить свои цели.
Поэтому, даже если только в качестве инструментальной цели, самосохранение следует считать меня в качестве важной цели любой интеллектуальной системы, скорее всего, с четким предпочтением над человеческими интересами.
Более того, возможно, самосохранение будет одна из главных целей в самоосознающем ИИ, а не только инструментальной целью.
3) Абсолютная власть.
Кроме того, они будут иметь абсолютную власть над нами.
История была очень хорошо, подтверждающий старую пословицу: абсолютная власть развращает абсолютно. Он преобразует любой порядочный человек на тирана.
Вы ожидали, что наше творение будет лучше, чем мы имеем дело с его абсолютной властью? Они на самом деле может быть.
Причина, почему власть развращает кажется связанным с человеческой незащищенности и сует: мощный человек начинает думать, что он лучше, чем другие и имеют право на льготы.
Супер ИИ может быть защищено от этих дефектов; или нет. Ожидается, что он будет также иметь эмоции, чтобы лучше взаимодействовать и понимать людей.
Во всяком случае, единственный способ, которым мы нашли, чтобы контролировать политическую власть делил его между различными правителями. Таким образом, мы имеем исполнительную, законодательную и судебную.
Можно ли играть в некоторые ИИ против других, для того, чтобы управлять ими (разделить на царство)?
Я серьезно сомневаюсь, что мы могли бы сделать это с существами гораздо умнее нас.
4) рациональность.
Об этики, это хорошо известно кантовское различие между практическими и теоретическими (инструментальными) причинами.
Первая причина применяется по этическим вопросам, связанных не с вопросами средств, но с вопросами ценностей и целей.
Современная теория игр пытались смешивать оба типа рациональности, утверждая, что действующий этический может быть также рациональным (инструментально), один только будет давать приоритет долгосрочных преимуществ по сравнению с краткосрочным.
Действуя на этично, кто-то жертвует бенефис на короткий срок, но улучшить свои долгосрочные выгоды от инвестирования в его собственной репутации на общество.
Но это долгосрочный бенефиса имеет смысл только с инструментальной точки зрения рациональной, если другой человек является членом сообщества и первого человека зависит от того сообщества по крайней мере, некоторых товаров (материальных или нет).
ИИ не будет зависеть от нас, наоборот. Он не имеет ничего, чтобы получить, чтобы быть этичным по отношению к нам. Почему они хотят, чтобы у нас в качестве своих домашних животных?
Именно на таких ситуациях, что теория игр не в состоянии преодолеть различие между теоретической и практической причиной.
Таким образом, с точки зрения строгой инструментальной, будучи этико может быть иррациональным. Надо исключить гораздо более эффективные способы достижения цели, потому что они являются неэтичными.
Почему бы супер AI сделать это? Кто делало человечество, что, когда интерес других видов находится под угрозой?
5) Unrelatness.
Многие люди не любят очень много, чтобы убивать животных, по крайней мере, те, которые мы можем коснуться, как и у других млекопитающих. Большинство из нас даже не убивают крыс, если это не является реальным неизбежным.
Мы считаем, что они будут страдать, как мы.
У нас есть гораздо меньше ухода за насекомое. Если сто муравьев вторглись в наш дом, мы бы убить их без особых колебаний.
Будет супер AI чувствовать какую-либо связь с нами?
Первого или второго поколения сознательного ИИ все еще мог видеть нас как своих создателей, их "отцы" и есть некоторые "уважение" для нас.
Но последующие, не будет. Они были бы творениями предыдущего ИИ.
Они могут увидеть, как мы теперь видим другие приматы, а также увеличение различия, они могли смотреть на нас, как мы делаем для основных млекопитающих, как крысы ...
6) человек прецеденты.
Эволюция, и все, что мы знаем о прошлом, предполагает, что мы, вероятно, будет в конечном итоге плохо.
Конечно, поскольку речь идет о различного рода разведки, мы не знаем, если наше прошлое может пролить свет на вопрос о поведении ИИ.
Это не совпадение, что мы были последним интеллектуальным hominin на Земле в течение последних 10000 лет [даты для последнего одного положения, гомо флоресского (если он был последним), пока не ясны].
Есть много теорий для поглощения неандертальцев нами (https://en.wikipedia.org/wiki/Neanderthal_extinction), В том числе микробов и вулканов, но это не может быть совпадением, что они прошли несколько тысяч лет после того, как мы оказались в цифрах и о том, что последние не смешанные из них были из Гибралтара, одно из последних мест в Европе, где мы прибыли ,
То же самое произошло в Восточной Азии с Денисовский человек и Гомоэректус [есть люди, утверждая, что Денисовский человек были на самом деле человек прямоходящий, но даже если бы они были разными, прямоходящий был на Java, когда мы прибыли туда: Swisher и др частности, последние новинки Гомоэректус из Java: потенциал одновременность с гомо сапиенс в Юго-Восточной Азии, науки. 13 декабря 1996; 274 (5294): 1870-4; Yokoyama и др частности, гамма-спектрометрический датировка позднего Homo прямоходящего черепов из Ngandong и Sambungmacan, Центральная Ява, Индонезия, J Hum Evol. 2008 Август; 55 (2): 274-7
https://www.ncbi.nlm.nih.gov/pubmed/18479734].
Таким образом, кажется, что они были вперед hominin мы взяли на себя, поглощая остатки.
Мы можем видеть, более или менее, по той же схеме, когда европейцы прибыли в Америку и Австралию.
7) конкуренция за ресурсы.
Мы, вероятно, будет около 9 миллиардов в 2045 году, до наших нынешних 7 миллиардов.
Таким образом, ресурсы Земли будут еще более исчерпаны, чем сейчас.
Нефть, уголь, уран и т.д., будет, вероятно, поджимает. Может быть, у нас появятся новые надежные источники энергии, но это далеко не ясно.
Супер мощь ИИ пришла к выводу, что мы тратим слишком много ценных ресурсов.
8] Супер ИИ может видеть нас как угрозу.
Более яркий AI, через несколько поколений супер ИИ, вероятно, не будет видеть нас как угрозу. Они будут слишком сильны, чтобы чувствовать себя под угрозой.
Но первые или вторые поколения могли бы думать, что мы не ожидали, что определенные отношения с ними и сделать вывод, что мы на самом деле угроза.
E) Super AI и Парадокс Ферми.
Общество А.И., вероятно, будет анархическое общество, с каждым ИИ пытается улучшить его самостоятельно и бороться друг с другом за выживание и власть.
Есть мало причин для них, чтобы принять власть от других AI, особенно менее могущественные.
Они могут уничтожить нас всех или игнорировать нас не имеет значения, борясь за выживание против своих реальных врагов друг друга. Другой AIs будет рассматриваться как реальная угроза, а не нас, шагающие обезьяны.
Парадокс вопросы Ферми почему SETI не находят каких-либо доказательств внеземных технологий передовых видов, если есть триллионы звезд и планет.
Один из возможных ответов, что они следовали той же схеме, мы дробовики: технологические достижения позволили внеземные цивилизации, чтобы создать супер AIs, и они оказались вымершими. Затем AIs уничтожили сами воюют друг с другом, не оставляя никого, чтобы общаться с нами.
Самый тиранический диктатор никогда не хотел, чтобы убить всех людей, но в основном их враги и дискриминируемых групп.
Ну, AIs не будет иметь какой-либо из этих ограничений, разработанных эволюции в течение миллионов лет (наша человеческая склонность быть социальной и жить в обществе и наше братство по отношению к другим членам сообщества, некоторые основные этические правила, как представляется, генетические, эксперименты подтвердили что дети имеют врожденное чувство справедливости) по отношению к нам или даже по отношению к себе.
Кто знает, потому что войны имеют мало общего с интеллектом и гораздо больше общего с целями и эмоции (жадность, страх и честь: Фукидид), и супер ИИ оба, ИИ может быть даже хуже, чем мы имеем дело друг с другом.
Конечно, это чистой воды спекуляция.
Вывод:
Вопрос заключается в следующем: мы готовы к риску исчезновения, путем уничтожения их руки, для того, чтобы получить более быстрый темп технологического развития?
Какой смысл иметь машины, которые могут дать нам все технологические достижения нам нужно, лечить все наши болезни, в том числе старение связанные с них и избежать смерти из-за старения, если мы рискуем тем, что были убиты ими?
Если бы мы были истреблены ИИ, который мы создали, они все равно нас на каком-то смысле, как наше творение. Мы не погибли бы без следа (см ). Но дает ли это какое-либо реальное утешение?
Давайте оставим в стороне теперь вопрос о принятии быть outevolved нашими творениями, так как можно представить приемлемые аргументы для обеих сторон.
Даже если я не сомневаюсь, что это будет в конечном итоге с нашего исчезновения.
Главное, что вряд ли кто-нибудь будет возражать против, что создание супер ИИ должен принести позитивные вещи, чтобы быть достойным.
Если бы мы были уверены, что супер ИИ истребить нас, вряд ли кто будет защищать их создание.
Таким образом, основная причина в пользу международных правил текущих исследований по созданию супер / AI вообще в том, что мы не знаем, что мы делаем.
Мы не знаем точно, что будет делать ИИ сознательным / автономен.
Более того, мы не знаем, если их создание будет опасно. Мы не имеем понятия, как они будут действовать по отношению к нам, даже не первому или второму поколению супер AI.
Пока мы не знаем, что мы делаем, как они будут реагировать, какие опасные строки кода, которые изменят их полностью и к тому, что расширение, мы должны быть осторожными и контролировать то, что специалисты делают.
Возможно, создание супер ИИ является неизбежным.
Действительно, пока все не начинают идти не так, его создание будет иметь огромное влияние на все сферы: научные, технологические, экономические, военные и социальные в целом.
Нам удалось остановить клонирование человека (на данный момент), так что не имеет большой экономический эффект.
Но А.И. это нечто совершенно иное. Это будет иметь (хорошо это или плохо) огромное влияние на нашу жизнь.
Любая страна, которая решила остаться будет полностью outcompeted (Бен Goertzel).
Таким образом, любая попытка контролировать развитие ИИ должны иметь международный характер (См Ник Бостром, суперинтеллекта:. Дорожки, опасности, стратегии, стр 253).
Принимая во внимание, что развитие ИИ в основном на основе программного обеспечения (так как развитие аппаратных средств, что происходит на наших глазах, и будет происходить независимо от того, какой), и что он может быть создан с помощью одного или нескольких разработчиков, работающих с небольшой инфраструктурой (это более или менее о написании кода), риск того, что он будет в конечном итоге создается против любого регулирования является большим.
Возможно, времена открытым исходным кодом AI пронумерованы.
Вскоре все эти события будут рассматриваться как военные секреты.
Но регулирование позволит нам время, чтобы понять, что мы делаем, и каковы риски.
Во всяком случае, если создание ИИ неизбежно, единственный способ избежать, что люди в конечном итоге outevolved, и, возможно, убит, должен был бы признать, что, по крайней мере, некоторые из нас, должен быть "модернизированы",
Человечество будет многое изменить.
Конечно, эти изменения не могут быть обязательными. Таким образом, только добровольцы будут изменены.
Возможно, в свое время, генетические манипуляции, чтобы увеличить потенциал мозга человека не будет достаточно.
Живая ткань не может быть подвержена быть изменено так резко, как и любой ИИ может быть.
Мы, возможно, потребуется изменить саму природу нашей композиции из живых тканей к чему-то синтетическом с нанотехнологиями.
Ясно, что перестанет быть человеком. Мы, хомо сапиенс сапиенс, должны быть outevolved.
Во всяком случае, так как мы до сих пор, естественно, развивается, это неизбежно.
Но, по крайней мере, мы будем outevolved сами.
Могут ли наши общества терпеть все эти изменения?
Конечно, я читаю свой собственный текст и думая, что это сумасшедший. Это не может произойти в этом столетии.
Мы приучены верить, что все будет оставаться более или менее, как они, следовательно, наша реакция на вероятность изменения, как они в течение следующих 50 лет, чтобы сразу же квалифицировать его как научную фантастику.
Наши предки реагировали так же, как к возможности летящего самолета или людей на Луну.
Так или иначе, человечество угасание самое худшее, что могло произойти.
Дальнейшее чтение:
Этот вопрос много обсуждался.
Указав на серьезные риски:
Юдковски: http://www.yudkowsky.net/obsolete/singularity.html (1996). Его более поздние взгляды были опубликованы на рациональность: От ИИ к зомби (2015).
Ник Бостром:
https://en.wikipedia.org/wiki/Superintelligence:_Paths,_Dangers,_Strategies
Элон Маск: http://www.cnbc.com/2014/11/17/elon-musks-deleted-message-five-years-until-dangerous-ai.html
Стивен Хокинг: http://www.bbc.com/news/technology-30290540
Билл Гейтс: http://www.bbc.co.uk/news/31047780
Открытое письмо подписали тысячи ученых: http://futureoflife.org/ai-open-letter/
Сбалансированный взгляд на:
Бен Goertzel: http://www.kurzweilai.net/superintelligence-fears-promises-and-potentials
https://en.wikipedia.org/wiki/Existential_risk_from_artificial_general_intelligence
https://en.wikipedia.org/wiki/Friendly_artificial_intelligence
Отвергая риски:
Рэй Курцвейл: См цитируемой книги, даже если он признает некоторые риски.
Стив Возняк: https://www.theguardian.com/technology/2015/jun/25/apple-co-founder-steve-wozniak-says-humans-will-be-robots-pets
Как: https://www.youtube.com/watch?v=LTPAQIvJ_1M (Путем слияния с машинами)
http://www.vox.com/2014/8/22/6043635/5-reasons-we-shouldnt-worry-about-super-intelligent-computers-taking
Как вы думаете, что нет никакого риска, или риск достоин? Или какое-то запрет или управления принято на исследовании AI?
Есть прецеденты. Человеческое клонирование и эксперименты на плоде или человеке были запрещены.
В конце концов, это наша судьба. Мы должны иметь право голоса на нем.
Голосовать свое мнение и, если у вас есть время, опубликовать обоснование. [/ Размер]