Раздел 5 Мир сумасшедший

1. Самые ранние опасения

Кто-то действительно впервые переживал, что технология убьет нас, людей, то есть, когда была разработана атомная бомба, то есть Манхэттенский проект в Соединенных Штатах. Ученые, участвовавшие в разработке в то время, беспокоились о том, что атомная бомба может воспламенить атмосферу. Это было не химическое сжигание, а гораздо более мощное ядерное сжигание. Атмосфера зажигается, и где мы, люди? Почему существуют такие проблемы? Потому что температура центра атомной бомбы превысит 10 миллионов градусов. Согласно нашему прошлому опыту химического сгорания, тысячи градусов - это очень высокая температура, которая может расплавить сталь. Для десятков миллионов высокотемпературных ученых нет соответствующей концепции, и я не знаю, что произойдет. Но в то время Вторая мировая война была очень ожесточенной: неотложная потребность в новом оружии в сочетании с исследованием неизвестного поля любопытства - естественный инстинкт ученых, поэтому эти ученые также хотят заняться разработкой атомных бомб. Атомная бомба взорвалась, и атмосфера не загорелась.

Позже была разработана водородная бомба. Водородная бомба была подожжена атомной бомбой. Ее мощность намного больше, чем у атомной бомбы. Температура в центре может достигать сотен миллионов градусов. Ученые испытывают подобные опасения. Водородные бомбы были проведены снова, и не было никакого воспламенения атмосферы.

В 1999 и 2000 годах Брукхейвенская национальная лаборатория в Соединенных Штатах строила релятивистский коллайдер с тяжелыми ионами, в то время ученые дважды подавали в суд на проект и решительно выступали против проекта. Почему он возражал? Они обеспокоены тем, что высокоскоростное столкновение частиц выбьет крошечную черную дыру или что-то еще. Если вы действительно попадете в стабильную черную дыру, вы будете всасывать землю и станете черной дырой, которая не такая большая, как мяч для настольного тенниса. Но те, кто выступает за этот проект, считают, что это беспокойство не является необходимым, причина в том, что черная дыра может испаряться, что основано на теории испарения черной дыры Стивена Хокинга. Хокинг считает, что сильная гравитация черной дыры может привести к поляризации вакуума в окружающей области, что приводит к испарению черной дыры. Чем меньше черная дыра испаряется, тем быстрее черная дыра частицы испаряется в момент столкновения. Но ученые, которые выступили против этого проекта, указали, что теория испарения черной дыры Хокинга - это недоказанная теория, которая только получена, и наша ставка слишком велика. Мы принимаем судьбу всего человечества в качестве ставки, на случай, если Есть ли проблема с этой теорией? Мы все законченные люди! Этот проект еще не завершен, земля не засасывается.

В 2008 году строился Адронный коллайдер в Европе. Адронный коллайдер намного мощнее релятивистского коллайдера тяжелых ионов, его мощность намного больше. Другой человек подал в суд на проект и подумал, что проект был опасным. Дело все еще было сделано. Конечно, земля не была втянута.

С этой целью в то время автор опубликовал в Гонконге статью «Мир сошёл в сума». Я сказал: что так важно, так важно, должны ли мы использовать судьбу всего человечества в качестве ставки для его задержания? Вы оставили все ценности или ценности человеческого существования? Часто по реке ходят всегда мокрые ботинки, а на черной дороге обязательно встретятся призраки. Такую простую истину так трудно понять? В чем разница между всем этим и русской рулеткой? Вот как мы пытаемся продвигаться вперед раз и навсегда, можем ли мы сделать так, чтобы человеческое вымирание было желанным?

В статье также говорилось о проблеме инопланетян: я объяснил, что мы постоянно запускаем детекторы во всех направлениях Вселенной и отмечаем нашу ориентацию и человеческие характеристики на детекторах, и чаще для каждого пришельца. Человеческая планета испускает радиосигналы и пытается всеми способами связаться с инопланетянами. Если однажды инопланетяне узнают о существовании людей на нашей Земле и придут на Землю с технологией, которая во много раз более развита, чем мы, ожидание нас должно быть вымерло. Катастрофа. Наши исследования и эксперименты настолько умны? ! Это глупо? ! Все еще не ответственны? !

2. Люди, которым трудно повернуть назад

Жаль, что мы все еще пытаемся идти вперед, и содержание испытания становится все более и более, и степень опасности становится все выше и выше. Поскольку уровень науки и техники выше, существует вероятность того, что люди исчезнут, у них больше типов, а их сила еще больше.

В настоящее время многие ученые обеспокоены тем, что нанотехнологии убьют людей, то есть, если нанороботы, разработанные с помощью описанной выше нанотехнологии, выйдут из-под контроля, бесконечное размножение нанороботов не только полностью уничтожит людей, но и полностью уничтожит землю. Многие ученые предупреждают, что это исследование имеет огромный риск. Например, Билл Джой, главный научный сотрудник Sun Microsystems(Американская компания), является всемирно известным ученым в области компьютерных технологий и отметил в апреле 1999 года, что при неправильном использовании разрушающая способность нанотехнологий может быть больше, чем у ядерного оружия. Из-под контроля это может стать раком, который поглотит всю вселенную. Никто не может гарантировать, что нанобокс не станет коробкой Пандоры. Бесконечная репликация сотен миллионов нанороботов уничтожит людей и весь мир.

Но все предупреждения бесполезны. На самом деле, это не далеко от людей, чтобы освоить такие технологии полностью. Заманчивая и практическая перспектива нанотехнологий сделала исследования людей в области нанотехнологий, в том числе нано-роботов, ни на минуту не остановленными, особенно исследования нескольких крупных технологических стран в этой области вложили много сил.

Все еще есть много ученых, которые волнуются, что биоинженерия убьет людей, то есть генетические агенты биологической войны, разработанные генной инженерией биоинженерии, распространят супер чуму. Таким образом, биологические боевые агенты, такие как бактерии и вирусы, модифицированные генетическими методами, описанными выше, могут специфически атаковать смертельные органы человека и могут устанавливать путь его передачи и инкубационный период, вызывая тем самым вымирание человека.

Затем, чтобы биологический боевой агент мог целенаправленно атаковать смертельные органы людей, сначала необходимо понять генетические характеристики людей. Вскоре после того, как мы освоили технологию редактирования генов, в 1985 году американские ученые предложили изучить геном человека.

В 1990 году Соединенные Штаты возглавили официальный запуск проекта «Геном человека», огромного исследовательского проекта с Манхэттенским проектом по изучению атомной бомбы и программы «Аполлон» на Луне, и назвали три основных научно-исследовательских проекта в истории.

План состоит в том, чтобы точно определить последовательность более 3 миллиардов пар оснований, составляющих гены человека. С 1990 по 2006 год потребовалось 16 лет, чтобы сконцентрироваться на ученых из шести стран в Соединенных Штатах, Великобритании, Франции, Германии, Японии и Китае, и, наконец, завершили план.

Завершение проекта «Геном человека» указывает на то, что мы заложили основу для полного раскрытия генетического кода человека. Незадолго до того, как этот план был полностью завершен, начиная с 2003 года, был запущен план последующей деятельности по проекту «Геном человека» под названием ENCODE. Это также огромный проект, объединяющий ученых из пяти стран США, Великобритании, Испании, Сингапура и Японии, и с сентября 2003 года по сентябрь 2012 года на его завершение ушло девять лет. Этот план состоит в том, чтобы разрешить все функциональные компоненты человеческого генома.

В настоящее время многие ученые работают над проектами по изучению протеома человека.

С завершением этого огромного плана, ворота огромных складов, которые содержат секреты нашей человеческой жизни, быстро открываются один за другим, и любой может войти и сделать что-то хорошее и плохое.

Можно предположить, что с таким большим количеством базовых подготовительных работ еще далеко до разработки сверхчеловеческого боевого агента для уничтожения людей?

Условно говоря, все больше людей беспокоятся о том, что искусственный интеллект убьет людей. Это причина. В 2016 году робот Alpha Dog производства Google и чемпион Кореи Го Ли Шиши сыграли в игру и победили Го Чемпиона. Этот инцидент вызвал сенсацию в мире. Поскольку наш нынешний компьютер и соответствующий робот могут только решить проблему логического мышления, не могут решить проблему абстрактного мышления, пусть робот, управляемый компьютером, имеет небольшие проблемы с шахматами. Каковы следующие шаги для меня? Компьютер подсчитает изменения и, наконец, выберет наиболее разумную точку. Но Го не может, потому что Го изменилось слишком сильно, больше, чем атомы всей вселенной. После вашего следующего шага, как мой робот должен быть выключен? Компьютер не может понять это, потому что слишком много изменений, а сумма слишком велика. Но это, по-видимому, невозможно, и это было решено программистами Google таким образом, что нетрудно понять. Как он это решил? После вашего следующего шага, как мой робот должен быть выключен? Каждое изменение не заканчивается при использовании компьютерной обработки, потому что слишком много изменений, например, у меня всего сто шагов (это всего лишь пример, может быть, не сто шагов, а восемьдесят или семьдесят шагов) ), после следующих сотен шагов используется функция, чтобы приблизительно рассчитать положение диска, а затем выбрать точку с относительно большим преимуществом, поэтому она очень точна, когда дело доходит до первых сотен шагов. Таким образом, эта, казалось бы, единственная проблема, решаемая с помощью абстрактного мышления, пусть это решает робот с логическим мышлением. Хотя сенсацию в мире многие ученые беспокоятся о том, что искусственный интеллект вызовет кризис. В то время Хокинг сказал: «Искусственный интеллект рано или поздно пробудит самосознание. Если в это время у нас будут трудности с его контролем.

Тем не менее, искусственный интеллект является наиболее популярным предметом сегодня, и он является главным приоритетом развития науки и техники во всех крупных странах.

Важно подчеркнуть, что ядерное оружие нуждается в мощности страны, чтобы производить его, но нанороботы, агенты генетической биологии и интеллектуальные роботы могут быть получены независимо одной компанией или даже ученым высокого уровня и могут независимо контролироваться. Поведение страны хорошо контролируется, поведение людей трудно контролировать, и тем, кто осмеливается делать очень плохие вещи.

3. Бесконтрольный мир

Таким образом, в развитии науки и техники мы уже находимся в состоянии неконтролируемого состояния, зная, что определенная технология сопряжена с чрезвычайными рисками или находится на ветру, что приводит к огромному кризису для всех людей. Это беспрецедентный кризис. Это кризис вымирания. Мы, люди, должны спасти, кто может спасти человечество? Спасение человечества может зависеть только от нас самих, и я считаю, что самым могущественным игроком в деле спасения человечества является лидер большой страны. Поэтому в 2007 году, когда моя первая книга «Спасите человечество» была опубликована в материковом Китае, я воспользовался этой возможностью, чтобы написать «открытое письмо руководителям человечества» президенту Китая, Соединенным Штатам. Президент, президент России и другие руководители крупных стран, а также Генеральный секретарь ООН. После этого он писал письма лидерам разных стран и обращался по различным каналам. Но в течение стольких лет результаты были минимальными. Долгое время все думали, что это мнение было слишком странным, и даже чувствовали себя как шутка. В последние годы ситуация несколько улучшилась, потому что быстрое развитие искусственного интеллекта в последние годы заставило некоторых людей почувствовать, что наука и техника чрезвычайно вредны.

В 2013 году однажды утром я включил свой мобильный телефон и получил текстовое сообщение, которое было отправлено моим другом. Он сказал: Скажу вам хорошие новости. Международный авторитетный исследовательский институт разработал такой, который почти точно такой же, как вы. Заключение исследования, их доказательства такие же, как и у вас, вы спешите взглянуть в интернет.

В обзоре он сказал, что Институт будущего человека в Оксфордском университете собрал группу ученых мирового уровня, философов и антропологов, чтобы провести исследование, которое пришло к выводу, что люди вымрут в следующем столетии. Главный виновник уничтожения человечества - наука и техника. Ядерное оружие не может быть уничтожено людьми. Можно истребить людей с помощью нанотехнологий, биоинженерии, искусственного интеллекта или технологий будущего.

Я был очень взволнован, увидев этот результат, и думаю, что наличие такого авторитетного исследовательского учреждения с таким осторожным выводом должно привлечь внимание людей. Поэтому я сразу сделал три вещи: во-первых, я написал письмо лидерам разных стран, «третье открытое письмо руководителям-людям». Во-вторых, я опубликовал статью «Наконец-то у меня есть друг». В-третьих, я написал письмо Нику Бострому, декану Института будущего человека в Оксфордском университете, в надежде поработать с ними.

Жаль, что такой авторитетный вывод исследования с предупреждениями привлек к себе внимание лишь в течение короткого периода времени и был быстро ошеломлен. Это заставило меня задуматься над словами Билла Гейтса, сказал Билл Гейтс в сетевом вопросе: искусственный интеллект разрабатывался десятилетиями, что может поставить нас под угрозу. Я не знаю, почему это не может привлечь внимание людей ?

Как уже упоминалось выше, в научном и техническом исследовании вы сказали, что это невозможно сделать, что это небезопасно, как подавать апелляцию, как предупредить, и даже использование судебного разбирательства бесполезно. Включая ведущих ученых мира, их призывы и предупреждения очень слабы и быстро подавляются. И ты сказал да! Это должно быть сделано! Вы можете получить кусочек цветов и сразу же аплодировать.

В Китае существует хорошо зарекомендовавшее себя предприятие, специализирующееся на искусственном интеллекте, и его генеральный директор сказал, принимая вопрос безопасности искусственного интеллекта: я оптимист, и искусственный интеллект не может исчезнуть, по крайней мере, в нашем поколении.

Это тоже оптимист? "Разве мы не можем быть людьми в нашем поколении?" ! Как насчет нашего следующего поколения? ! Как насчет нашего следующего поколения? !

Можно видеть, что сегодня все общество находится в состоянии онемения. Развитие онемения - это онемение кризиса. До прихода огромных волн море часто очень спокойное, но подводное течение поднимается на дне моря. Когда научные и технологические исследования считаются само собой разумеющимся. Для реализации, когда научно-технические достижения воспринимаются как должное, когда научно-технический продукт воспринимается как само собой разумеющееся, разрушительная катастрофа не может быть далеко впереди.

Каждый шаг нашего пути определяет наше будущее и, в конечном счете, определяет наш конец. Когда сегодня наука и техника достигнут такого высокого уровня, мы будем продолжать двигаться вперед! Вперед! Вперед! Если вы продвинетесь на один шаг вперед, вы обязательно наступите на шахту. Это мина, которая вымерла. Когда мы ступаем на нее, мы не можем оглянуться назад. Это будет наш перый шанс и последний шанс!