10 Плашилото технологии на бъдещето, от които бяхме по-добре да се откажат

Колкото по-надълбоко отидем в 21-ви век, толкова по-ясно се появяват фантастичните възможности, които стоят пред нас. И колкото по-ясно ние се чувстваме мрачни чувства, когато мислим за тях. Преди да десет плашещи технологии, които биха били по-добре никога да не са съществували. Когато се запознаете с тях, ще стане ясно, че много от тези технологии може да бъде използвано за добро. Но е важно да се направи разделителната линия между самата технология и как тя може да се използва.

Вземете, например, нанотехнологиите. Както се развива, можете да ги използвате, за да се сложи край на постоянния дефицит, почистване на околната среда, за да променят човешката биология. Но те също могат да се използват за много бързото унищожаване на нашата планета. Така че, когато дойде време да се развиват и използват тези футуристични технологии, ние трябва да се подходи към този с пълна отговорност. Може би ние ще дойде да вярват, че отделна поредица от технологични разработки и свързаните с тях рискове не са на стойност на ползите. Например, изкуствен суперинтелект.

Някои технологии са обективно опасни. Това е, което казва за Патрик Лин, директор на Етичния + нововъзникващи науки група в Калифорния Политехническия държавен университет:

"Идеята, че технологиите са неутрални или нямат връзка с морал, това е мит, който трябва да бъде развенчан. Дизайнерът може да даде етиката на създаване, дори ако обектът не е себе си морален агент. Тази функция може да бъде много незабележим в повечето случаи, но някои технологии са родени от увреждане и има благоприятен приложение, например, газови камери. Освен това, въпреки че технологията може да бъде първоначално добро или лошо, всички са съгласни, че по-голямата част от технологии и двете са добри и лоши приложения. Ако вероятността от използването на технологии за зло е по-висока, отколкото в името на доброто, може би, тази технология не си струва да преследва. "

военна нанотехнология

Почти нищо все още може да се сложи край на нашето правило на Земята по-бързо от военния - или силно повредени - нанотехнологиите, молекулярна събрание.

Тази заплаха идва от два изключително мощни сили: неконтролираното самостоятелно възпроизвеждане и експоненциален растеж. Нихилистичен правителство, недържавен агент или частно лице може да се развива микроскопични машини, които ще поемат критични ресурси на нашата планета като горски пожар (много бързо), а плодовете на огромен брой и напускане на безполезни продукти по пътя си - футуристи наричат ​​този сценарий "сив тиня. "

Нанотехнология теоретик Робърт Freitas предложи няколко варианта за появата на разрушителната нанотехнологиите свят, включително и сивите прашни сиви планктон сиви лишеи и т.нар убиец биомаса. Сив прах нас затвори от слънчевата светлина сив планктонът ще се състои от отглеждат на репликаторите океанското дъно, които ще ядат цялата земя, богата на сиви лишеи въглеродни ekologiyu- унищожи наземната геология и биомаса убиец атака на различни организми.

Според Freitas, най-лошият сценарий "глобално ecophagy" ще отнеме около 20 месеца, което е повече от достатъчно, за да се изгради ефективна защита. Под закрилата на Freitas има предвид, противодействие под формата на самовъзпроизвеждаща нанотехнологиите или система, която забранява на вътрешния механизъм на наноботи. От друга страна, бихме могли да разположи "активни щитове" в аванс, но повечето експерти в областта на нанотехнологиите са съгласни, че това би било безполезно. Поради това е необходимо да се разработи и подкрепа на мораториум върху създаването на бойна нанотехнологиите.

интелигентни машини

Един ден ние ще дадем на машините за изкуствен разум, то се приема като очевидно. Но преди да продължим напред към това бъдеще, ние трябва да се мисли много сериозно. То може да бъде твърде тежко за изграждане на функционален мозък вътре в компютъра - и това се отнася както за животните и човека емулации.

Обратно през 2003 г., на философа Томас Metzinger твърди, че би било ужасно неетично да се разработи софтуер, който може да опита страдание:

"Какво бихте казали, ако някой дойде и каза:" Ние искаме да се модифицират генетично на умствена изостаналост човешките бебета! По някаква причина, приемлива за научния прогрес, ние се нуждаем бебета с определени когнитивни и емоционални увреждания да учат им след раждането психологическо развитие - спешно се нуждаем от средства за този важен и новаторски тип изследвания "!. Може би си мислите, че това е не само абсурдно и съмнително, но опасна идея. Тя няма да пропусне нито една комисия в демократичния свят етика. Въпреки това, комисиите по етика сегашните не виждат, че първите машини, които отговарят на минималните изисквания за съзнателен опит да бъдат също толкова умствено изостанали деца. Те могат да страдат от всички видове функционални и представителни дефицити. И те да бъдат субективно ще се чувстват по този дефицит. Освен това, те няма да имат никаква защита и никакви представители в комисиите по етика. "

Видео: 5 стереотипи за технология, от които е време да се даде

Futurologist Луи Хелм съгласява:

"Компютрите са особено добри, защото те могат да се изчисли сумата на милиони колони в таблицата и да не се уморяват, не е скучно. Тъй като ние планираме да използваме изкуствения интелект да замени умствена работа, аз мисля, че би било неморално да се създаде разумна програма. Изостряне съзнателно същество в колата и да работи за вас - това е почти робство. В допълнение, осъзнаване - крехка нещо. Няколко неправилно кодирани гени при хора може да предизвика синдром на Даун, шизофрения, аутизъм или епилепсия. Какво е това: неправилно програмиран форма на съзнание? Например, няколко добре спонсорирани AI изследователите искат да пресъздаде човешкия интелект в машини чрез симулиране на биологичната структура на човешкия мозък. Очаквам и дори малко надежда, че тези първи опити за моделиране биха били твърде сурови наистина да изгори. Но в случая на "успех", първите резултати ще генерират сигурност е странно, неприятно и почиства състояние на субективно преживяване. Като програмист, аз съм против стеснителен изкуствен интелект. Не, защото не е готино. И тъй като аз бях морално срещу робството, изтезания и лошо код. "

изкуствен свръхразум

Както Стивън Хокинг в началото на тази година, изкуствения интелект може да бъде нашият най-лошата грешка в историята. Много пъти сме обсъждали факта, че появата на свръхчовешка интелигентност може да бъде катастрофа. Появата на системи, които са по-бързи и по-умни от нас, ние се хвърля на заден план. Намираме се на милостта на това, което изкуствено свръхразум желание - и не е ясно дали ще бъде в състояние да създаде приятелски изкуствения интелект. Ние трябва да се реши този проблем възможно най-бързо, в противен случай развитието на изкуствения свръхразум може да сложи край на човешката раса.

пътуването във времето

Видео: 10-необичайните МОБИЛНОСТ за деца и юноши

Не че аз силно вярвам във възможността за пътуване във времето (не всички ние да не пътуват във времето в момента?), Но да се отърват, че не е необходимо да се отчита. Освен това, ние трябва да стои далеч от нея.

Пътуването във времето може да бъде проклет опасно. Всеки филм за усложнените сроковете ви разкажа за потенциалните опасности, включително неприятни парадокси. И дори ако някаква форма на квантовата пътуване във времето е възможно - при създаването на един напълно нов и отделни срокове - културни и технологични обмен между различни цивилизации е малко вероятно да свърши добре.

читателите мисли



Перспективата за съществуването на машини, които могат да четат мислите и спомените на хората на разстояние, а не с тяхно съгласие и без притеснение. Но това е малко вероятно да бъде възможно най-дълго на човешкия мозък става по-силно интегрирани в мрежата, и други комуникационни канали.

Миналата година, например, изследователи от Холандия, използвани данни от сканиране на мозъка и компютърни алгоритми, за да се определи кои писма търси мъж. Този пробив показа възможността за реконструкция на човешката мисъл с безпрецедентно ниво на детайлност на трето лице - включително и това, което виждаме, това, което ние мислим, че можем да си спомня. Ако тези устройства попадат в лапите на тоталитарния режим, или полицейска държава, животът става невъзможно и непоносимо. Светът ще бъде подобна на Оруел, в който ще бъде наказан дори и за престъпленията, извършени в мисъл.

Устройства за хакване на мозъка

Има възможност, че съзнанието ни може да се променя, заедно с нашите познания и спомени. След като получите чиповете в мозъка и всички бариери падат, умовете ни ще бъдат отворени за целия интернет и всичките му злини.

Първата стъпка към тази цел ние сме го направили. Не много отдавна, международен екип от учени невролози началото на експеримента, който ще даде възможност на участниците да общуват от мозъка към мозъка чрез интернет. Охлажда се, може би си мислите, но такава техническа телепатия отваря кутията на Пандора. Един хакер може да бъде в състояние да променят спомени и намерения на жертвата. А какво би станало, ако такава възможност ще получите цялата организация или параноична правителството?

Автономни роботи, за да убиват хора

Видео: TOP5 Какви момичета като в един човек

Потенциалът на автономни машини, които убиват хора, плаши всички - и може би това е първата точка от дневния ред, с които да се започне да се бие.

Ето какво футурист Майкъл Latorre:

"Ние не разполагаме с автомобили, които имат обща интелигентност, близо до нивото на човек. Но за операциите на автономни роботи с смъртоносни способности на човешко ниво интелигентност се изисква. Изграждане на всички видове роботизирани военни части вече са в разгара си. Роботизирани танкове, самолети, кораби, подводници, роботи войници - всичко това е възможно днес. За разлика от безпилотни самолети с дистанционно управление, военни роботи могат да идентифицират цели и да ги унищожат без човешка показалка и реда да стреля. Опасността от тази технология трябва да е очевидно, но не трябва да се ограничава само до заплахата от "приятелски огън", когато роботът случайно убиват хора на тяхна страна на конфликта или дори невинни цивилни граждани. Когато най-голямата опасност се крие в състезанието международна търговия с оръжие, което може да се обърнеш, ако всяка страна започва да се изгради автономни бойни роботи. След няколко цикъла на подобрение, състезанието е създаването на още по-мощни военни роботи може да премине прага, когато най-новото поколение на автономни роботи ще бъде в състояние да преодолее всяка военна система под контрола на хора. И тогава, случайно или умишлено, човечеството може да се поставите в ужасна ситуация ще бъдат залети от жертвите на бойни роботи. "

Бойни патогени

Видео: Топ 10 опасни змии

Това е друга тема, която засяга много. През 2005 г. Рей Kurzweil и Бил Джой се отбележи, че публикуването на геномите на смъртоносни вируси по света ще бъде рецепта за смърт. Винаги ще има един идиот или куп фанатици, които ще вземат тази информация в експлоатация и реконструиран вирус от самото начало или промяна на съществуващи вируси, което ги прави още по-опасно и след това отпуснете в света. Изчислено е, например, че модифицираната птичи грип може да унищожи половината от населението на света. Но учени от Китай и всичко това съчетано птица и свински грип, създаването на този мутант. Тяхната цел, разбира се, да разбират, знаят врага и разработване на евентуални контрамерки, преди да избухне реалната пандемия. Но винаги има опасност, че вирусът да избяга от лабораторията и сеят хаос сред хората. Или, че тя ще обхване и отприщи.

Това е време да се мисли за този мрачен възможност преди нещо ужасно ще се случи.

Виртуална затвор и мъчения

Каква ще бъде мъчения и затвор, ако хората могат да живеят в продължение на стотици или хиляди години? Какво ще се случи, ако затворниците умовете им са заредени във виртуалния свят? Етичната Ребека Роуч разследва тези ужасни сценарии:

"Предимствата са очевидни безсмъртие - но заедно с него може да се увеличи наказанието. Ако тридесет години лишаване от свобода, считани за прекалено мек с наказание, нарушителят може да даде живот и като се има предвид увеличаването на продължителността на живота. Доживотен затвор ще се обърнат към няколко стотин години например. Обществеността обаче може да бъде по-скъпо да съдържа такива престъпници. Но ако увеличаването на продължителността на живота ще бъде на разположение навсякъде, столетници несъмнено допринасят за по-дълъг живот на труда.

Гледай качването на извършителя и ускоряване на нейната милион пъти ще му позволи да "работят" престъпление, наказуемо с 1000 година за осем часа и половина. Тя ще бъде по-евтино, отколкото да се запази на нарушителя в парите на данъкоплатците, които е 1000 години. След това, се концентрира наказанието може да бъде последвано рехабилитация, и в продължение на няколко часа. "

Това е ужасно. Надяваме се, че на човечеството не е съгласен.

Създаване на ада

Този вариант е подобен на предишния. Някои футуролозите предвиждат използването на създаване raya- на съвременни технологии, включително изтегляне на съзнанието и виртуалната реалност, която ще се превърне земята в рай. Но ако можете да създадете рай, можете да създадете и ада. Тази гледна точка е особено страшно, когато смятате неопределен продължителността на живота, както и почти неограничените възможности на психологическо и физическо наказание. Трудно е да си представим, че някой е по принцип желае да се развива подобно нещо. Но, че някой може да бъде изкуствено свръхразум.

Споделяне в социалните мрежи:

сроден