ЕЛЕКТРОПРОИЗВОДСТВО – on line

АЕЦ Козлодуй - данни за електропроизводството

Генерация и товар на ЕЕС в реално време


Дронове с изкуствен интелект (ИИ) могат да атакуват атомна електроцентрала или да започнат война

20.09.2019

Ново поколение автономни роботи може да предизвика масово унищожаване на мирното население, предупреждава бившият инженер на Google Лора Нолан.
Тя напусна компанията в знак на протест срещу военни договори, след като лично се е запознала със съдържанието им.

Преди година Google покани Лора Нолан да работи по проект за американската армия – технология за военни дронове, управлявани от изкуствен интелект.
Програмистът изрази категоричния си протест, когато напусна компанията. Според нея въоръжените роботи, които не се контролират от хората трябва да бъдат извън закона поради същите причини, по които химическите оръжия са забранени: те убиват безразборно.

Както пише Guardian, Google е поканила Нолан, възпитаник на Trinity College в Дъблин, да участва в проекта Maven през 2017 г.
До този момент тя работи за компанията четири години и стана един от водещите им софтуерни инженери в Ирландия. Нолан обаче сериозно се усъмни в етиката на този проект на Министерството на отбраната на САЩ, чиято задача беше да ускори разпознаването на изображения за дроновете.

Компанията беше принудена да прекрати проекта Maven през март тази година, след като 3000 служители подписаха петиция срещу участието на Google в подобни разработки.

За разлика от дистанционно управляваните безпилотни летателни апарати (БПЛА), роботите убийци са потенциално способни да правят неща, за които първоначално не са били програмирани, убедена е Нолан.

Тя се присъедини към кампанията за забрана на роботите-убиици и информира дипломатите на ООН в Ню Йорк и Женева за опасностите от автономните оръжия.
„Вероятността от катастрофа е пропорционална на броя на такива машини в даден район. Става дума за вероятността от масови и противозаконни убийства, дори по законите за военно време, особено ако има стотици или хиляди такива машини“, каза тя.

Роботите могат да бъдат объркани от метеорологичните условия, които не са взети под внимание при програмирането им, или алгоритмите им могат да тълкуват погрешно намеренията на група въоръжени хора, приемайки мирни ловци за бойци.

Дори Нолан се страхува, че автономни бойни роботи може да се тестват само в реални условия.
„Може би точно това се случва сега в Сирия, кой знае? Това, което знаем със сигурност, е, че в ООН Русия се противопоставя на всеки опит за ограничаване или забрана на тези оръжия “, казва тя.

Източник: ХайТек+

Tags: ,

Вашият коментар

Вашият email адрес няма да бъде публикуван Задължителните полета са отбелязани с *

*

Тема на седмицата

ЕС – Ядрената енергетика се изплъзва от Европа

Атомът тръгва от Запад на Изток, и това съществено променя ядрения отрасъл. Към такъв извод са склонни много от участниците в европейския ядрен форум,...

Още »

Приносът на ядрения отрасъл в икономиката на ЕС

СЪПРИЧАСТНОСТ към децата – аутисти

Търсене

ENEN PLUS project – европейско ядрено ученическо състезание

Последни коментари