Фота Depositphotos.com

Фота Depositphotos.com

Нядаўна брытанскі Цэнтр ўрадавай сувязі апублікаваў працу пра тое, як штучны інтэлект можа змяніць існаванне гэтай спецслужбы. Напрыклад, праверка інфармацыі з дапамогай камп’ютара можа дапамагчы выяўляць фэйкавыя выявы, знаходзіць дэзынфармацыю і ідэнтыфікаваць ботаў, якія яе распаўсюджваюць. Штучны інтэлект здольны блакаваць кібератакі шляхам аналізу шаблонаў актыўнасці ў сетках і на прыладах, а таксама змагацца з арганізаванай злачыннасцю праз выяўленне падазроных сетак фінансавых аперацый, паведамляе The Economist.

Але спецслужбы вымушаныя ўлічваць законы аб абароне прыватнай інфармацыі. У сваёй працы Цэнтр урадавай сувязі абяцае сачыць за ўсімі праявамі староннасці ў сістэме, напрыклад, за сітуацыямі, калі алгарытм распазнавання голасу працуе не з усімі катэгорыямі насельніцтва.

Спецслужба таксама абяцае шчыра інфармаваць пра дапушчальную хібнасць і няпэўнасць у яе алгарытмах.

Амерыканскія агенцтвы разведкі больш ухіліста распавядаюць аб працы са штучным інтэлектам. Яны абяцаюць працаваць з павагай да чалавечай годнасці, правоў і свабод.

Не толькі этыка абмяжоўвае спецслужбы ў працы са штучным інтэлектам. Машыннае навучанне паказвае дрэнныя вынікі, калі трэба прадказаць паводзіны канкрэтнай асобы. Гэта асабліва важна ў такіх сферах, як контртэрарызм.

Тэрарыстычныя атакі — даволі рэдкая з’ява, і праз недахоп інфармацыі камп’ютару цяжка навучыцца правільна іх аналізаваць. У сваю чаргу, дрэнны аналіз і няправільныя высновы могуць выклікаць тое, што пад паліцэйскі пераслед трапяць нявінныя людзі.

Яшчэ адна праблема — фармат цяперашніх звестак, напрыклад, перахопленыя тэлефонныя званкі або відэа з дронаў, не падыходзіць для таго, каб камп’ютар мог карыстацца імі падчас навучання аналізу паводзін.

Клас
0
Панылы сорам
0
Ха-ха
0
Ого
0
Сумна
0
Абуральна
0

Хочаш падзяліцца важнай інфармацыяй ананімна і канфідэнцыйна?