10 Злото технологии, които са опасни за човешкото

Научно-техническият прогрес е донесъл огромни ползи за човечеството, но също така може да бъде причината за нашето унищожение.


© wallpaperpics.net

Колкото повече се движим в 21-ви век, толкова повече можем да си представим фантастичните възможности, които ни очакват. Въпреки това, ние сме преследвани от ужаса и опасението, в очакване на бъдещето. По-долу са 10 ужасен технологиите, изброени, не разполагат с правото да съществува.

1. Военният нанотехнологиите

© от университета в Сидни

Робърт Freitas

Нищо няма да сложи край на нашето царуване на Земята по-бързо от военен (или просто много добре приложени) нанотехнологиите. Това е заплаха, която идва от два изключително мощни сили от неконтролираното самостоятелно възпроизвеждане и експоненциалното нарастване. Достатъчно е нихилистична правителство, неправителствена организация или физическо лице може да създаде микроскопични машини, които в хода на самостоятелно възпроизвеждане унищожат всички важни ресурси на нашата планета като горски пожар, и остави след себе си само напълно безполезни бай продукти, остатъци, които футуристи обичат да наричат ​​"сивия тиня. "

Нанотехнология теоретик Робърт Freitas пое "мозъчна атака", и даде няколко варианта за това как нанотехнологиите могат да унищожат планетата. Сред тези варианти е така наречения "сив прах", "сив планктон", "сиви лишеи" и "убиец на биомаса." "Сивият прах" е в състояние да затъмни слънцето ", сив планктон" може да е на дъното на океана и да унищожи цялата морска екосистема, "сиви лишеи" унищожават полезни ресурси на повърхността, и "убиец на биомаса" ще унищожи всички живи организми. Според Freitas, в най-лошия сценарий на "глобална ecophagy" ще отнеме около 20 месеца, което е повече от достатъчно за ефективна защита. Под "защита" Freitas е свързана с развитието на други самовъзпроизвеждащи нано-роботи, които могат да унищожат вътрешните системи "нашественици". Друга мярка е да се създаде така наречените "активни щитове", въпреки че повечето експерти по нанотехнологии в един глас твърдят, че такива "съвети" ще бъдат безполезни. Така че, военната нанотехнологиите трябва да бъде мораториум, и тя трябва да се спазва.

2. Съзнателно Машини

© speakers.co.uk

Видео: TOP5 опасно изобретение

Томас Metzinger / © oberbergkliniken.de

След като в колата, ние vdohnom изкуствено съзнание. Но ние трябва да се помисли сериозно преди да направи това. В действителност, тя може да бъде много жесток - да се изгради напълно функционален мозък вътре в компютъра. И това се отнася както за човека, както и да си "копие". Обратно през 2003 г., на философа Томас Metzinger твърди, че би било ужасно неетично:

"Какво бихте казали, ако някой дойде при вас и казва:" Хей, ние искаме да се модифицират генетично на умствена изостаналост човешките бебета! За научния прогрес, ние се нуждаем деца с определени когнитивни и емоционални дефицити, за да се даде възможност на нас, за да проучи тяхното раждането психологическо развитие, и ние спешно трябва да осигури финансиране за този важен и новаторски тип изследвания. " Може би би си помислил, че не е само абсурдно, но опасна идея. Надяваме се, никой от комисията по етика, които никога няма да одобри. Въпреки това, нещо днешните етични комисии не виждат. Те не виждат появата на първите машини, които вече имат минимален набор от връзки, което е достатъчно за получаване на първоначална съзнателен опит, същата като тази на умствена изостаналост дете. Така че, тези автомобили ще страдат от всички видове

Louis Хелм

функционални и представителни дефицити. В допълнение, те няма да имат политическо лоби. - няма представители във всяка от Комисията по етика "

Futurologist Луи Хелм е съгласен. Ето какво казва той:

"Един от най-добрите неща за компютри е, че можете да получите тях да произвежда милиони операции в секунда, без да се притеснявате за това, което те биха могли да се съблазнява, или че те са отегчени. Тъй като ние планираме да използваме изкуствен интелект, а не човешки интелектуален труд, аз мисля, че би било неморално да го програмирате, така че тя да стане в съзнание. Сключване съзнателно същество в колата, и да работи за вас. - това е просто връщане към робството "

3. Изкуствен интелект

Според тази година Стивън Хокинг, изкуствен интелект може да бъде нашият най-лошата грешка някога. Това не е време се наблюдава и от други учени. Появата на интелигентност превъзхожда човека, той може да бъде катастрофално. Въвеждането на живота ни системи, които са по-бързи и по-умни от нас, ние ще премахне пътя.

Ние ще бъдем оставени на милостта на изкуствен интелект, който ще реши всичко за нас. В допълнение, не на факта, че ние можем да изградим приятелски изкуствения интелект. Ние трябва да се реши този проблем, в противен случай изкуствен интелект ще бъде чиста лудост.

Стивън Хокинг / © toptenz.net

Видео: 10 неразкрити мистерии ЧОВЕЧЕСТВОТО - Интересни факти

4. Travel назад във времето

© nesta.org.uk

Светът не е толкова много хора, които вярват в пътуване във времето. Но ако нещо подобно на това все още е възможно, тогава можем по-добре да стоят настрана от нея, защото това би било изключително опасно. Всяко научно-фантастичен филм, който е свързан с промяна в сроковете, трябва да ви даде представа за потенциалните опасности на тази технология, и по-специално на тези отвратителни парадокси време. И дори ако някаква форма на квантовата пътуване във времето все още е възможно (в хода на който ще бъде да се създаде отделен, чисто нови срокове), културното и технологично обмен между много различни в своето развитие на цивилизацията просто не може да свърши добре.



5. Читателите мисли

© dvice.com

В бъдеще, машината може да се създаде, чрез които ще бъде възможно да се чете мислите и спомените на хората, с разстояние и без тяхното съгласие. Но е очевидно, че тя няма да бъде възможно най-дълго на човешкия мозък, ще бъдат по-тясно интегрирани в Мрежата, и други комуникационни системи. Миналата година, например, изследователи от Холандия използват данни, получени чрез сканиране на мозъка, както и някои компютърни алгоритми, за да се установи, кой писма изглеждащ мъж. Този научен пробив за определени трети страни, намекна, че реконструкцията на човешкото съзнание може скоро да достигне безпрецедентно ниво на детайлност. Можете да научите това, което виждаме, спомнихме си и това, което мислим. Такива устройства, когато се използва в големи количества, може да се окаже добра помощ на тоталитарния режим или някаква полицейска държава, както и да направи живота непоносим. И това ще бъде в света на Оруел, в която хората са наказани за "престъпмисълта".

Видео: top5 смъртоносни ИГРИ

6. Мерки за "разчупване" на мозъка

© wired.com

Нашият ум също може да бъде променяна без наше знание и без нашето съгласие. След като в мозъка ни се появи чипове, и ако приемем, че не можем да се разработи ефективна "мозъчни защитни стени", които нашите умове ще бъдат достъпни от всеки сегмент на интернет. Невероятно, но ние вече предприе първите стъпки в тази посока. Наскоро, международен екип от учени невролози провели експеримент, който позволи на участниците да извършват "сливане на съзнанието" по интернет. От една страна, това е страхотно. Но, от друга страна, като "технически телепатия" може да бъде истински кутията на Пандора. Може би най-добрият (и най-лошото) илюстрация на тази заплаха е била представена в аниме "Дух в Shell". В този филм, изкуствения интелект "смахнат" мозъците на хората и е в състояние да променят своите спомени и намерения. Сега си представете, тази технология в ръцете на организираната престъпност или параноична правителство.

7. автономни роботи са предназначени да убиват хора

© thechangewithin.net

Опасност автономна машини за убиване е ужасно, а може би единствената точка от списъка, който е в сила и днес. Това е, което казва за това футурист Майкъл Latorre:

"Ние все още нямаме машини, които демонстрират интелект, който е поне малко като човек. Но смъртоносни автономни роботи и човешкия интелект не е нужен. Робот военни машини от всички видове са успешно изграждат в момента. Роботизирани танкове, роботи, самолети, роботи, подводници, роботи и дори войници са днес. За разлика от дистанционно управление, безпилотни самолети, военни роботи може самостоятелно да определят цели и да ги унищожат без човешка намеса, независимо вземане на решение, за да открият огън. Опасността от такава технология е очевидно, и тя отива отвъд заплаха от инцидент за "приятелски огън", в който роботът може да убива войници, които са с него, от една страна, или дори невинни цивилни. Голямата опасност дебне в борбата за международна търговия с оръжие, тъй като тя може да стимулира някои от народите, за да започне изграждането на автономни бойни роботи. След няколко цикъла на подобрение ще бъде ново поколение роботи, които ще бъдат в състояние да се защити от всяка система, контролирана от човека. И тогава или случайно ( "Кой знаеше, че изкуствен интелект може да възникне спонтанно във военен робот"?), Или с лоши намерения ( "Ние някак си не мисля, че хакерите могат да препрограмира нашите военни роботи от разстояние!") , човечеството може да бъде в пълно подчинение на новите си господари. "

8. Военни патогени

© mpipz.mpg.de

Ray Kurzweil / © wired.co.uk

Друга лоша, но плашещо актуален нещо. Обратно през 2005 г., годината Ray Kurzweil и Бил Джой публикувани геноми на смъртоносни вируси в света, така че всички да могат да видят тези рецепти за нашето унищожение. Винаги има възможността, че взети поотделно идиот или група от фанатици ще се възползва от тази информация и да се пресъздаде смъртоносния вирус от нулата или да прави промени в съществуващ вирус, за да го смъртоносно, а след това освобождаване в околната среда. Вярвало се е, например, че скандалната "птичи грип" може да убие половината от хората по цялото земно кълбо. И някои хора смятат, че вирусът е създаден изкуствено. Разбира се, най-важното в тези ситуации - да се знае на врага в лицето, както и разработване на евентуални контрамерки преди началото на пандемията. Но винаги има опасност, че вирусът може да излезе извън лабораторията и да започне да убива хора.

9. Виртуална наказание затвор

Видео: 7 Challenge, която приключи ТРАГЕДИЯ

© Scotsman.com

Какво ще бъде наказанието на затвора, ако хората някога да могат да живеят в продължение на стотици или дори хиляди години? И ако затворниците умове ще бъдат заредени в "виртуален затвор"? Справедлив и реалистичен Ребека Роуч разделен страшни сценарии:

Ребека Роуч

"Ползите от драматичното нарастване на продължителността на живота са очевидни, но те също могат да бъдат използвани за увеличаване на тежестта на наказанията. В случай, че сключването на тридесет години, изглежда твърде снизходителен съдия изречение осъден нарушител може да бъде осъден на доживотен затвор, който е комбиниран с положителен продължаване на живота. В резултат на това доживотна присъда може да означава период от няколко стотин години, не десетилетия. Обществото, разбира се, ще струва скъпо на подкрепата на тези изречения. Но ако увеличаването на продължителността на живота ще бъде на разположение на всички, тези разходи могат да бъдат компенсирани с увеличаване на производителните сили.

Има и друг вариант. Mind осъден нарушител се зарежда в компютъра, и скоростта на този ум насилствено увеличи милиони пъти, така че 1000 години лишаване от свобода тя се побира лесно в 8,5 часа. Този подход очевидно данъкоплатец ще струва много по-малко от срока на действие на принудително увеличаване на наказателната живот. "

Това е ужасно. Важно е да се отбележи, че Роуч не са благоприятни за такива методи за наказание, то е само за да се направят някои предположения. Но би било добре, ако те никога не се превърне в реалност.

10. инженерни дейности Hell

© srwuga-mods.dreamwidth.org

Тази точка е малко като предишната. Някои футуролозите правят прогнози за "рай инженеринг", под което се разбира използването на съвременни технологии, като например изтегляне на съзнанието във виртуална реалност, за да се създаде рай на Земята. Но веднага след като можете да създадете истински рай, така че можете да създавате и ада. А това е особено плашещи перспективи, като се предполага, че бъдещето на човешкия живот може да бъде много дълъг, и в този живот ще има много възможности да нанесат физическо и психическо страдание. В действителност, това е един от най-лошите неща, които могат да се случат. Плюс това, има и друга причина за забрана на разработването на изкуствен интелект: появата на "проблема на Базилиск Роко" ( "Basilisk Роко" - богоподобен и изключително опасна форма на изкуствен интелект).

Споделяне в социалните мрежи:

сроден