10 заплахи, които изкуственият интелект създава за компаниите
Новината, че Microsoft ще включи възможности за изкуствен интелект в лентата на задачите на Bing в операционната си система Windows 11, показва колко бързо технологията става достъпна както за бизнеса, така и за частни лица.
“С актуализацията инструментът за изкуствен интелект ще бъде достъпен от полето за търсене на Windows, което позволява на потребителите да имат директен достъп до файлове и настройки и да извършват уеб запитвания”, съобщи CNN.
Но как, кога и защо технологията има потенциала да създаде широк спектър от кризи?
Илон Мъск, например, изглежда има своите съмнения и опасения относно изкуствения интелект. “AI ме стресира” и федералното правителство трябва да регулира технологията.
“Нуждаем се от някакъв регулаторен орган или нещо подобно, което да контролира развитието на AI”, споделя Мъск. “Да се увери, че работи в обществен интерес. Това е доста опасна технология. Опасявам се, че може да съм направил някои неща, които я ускориха”.
Заплахи
“С напредъка на изкуствения интелект компаниите ще се сблъскат с редица правни и бизнес рискове, първо, от лоши хора, които използват тези технологии, за да навредят на бизнеса, и второ, когато самите компании искат да внедрят чатботове или други форми на изкуствен интелект в своите функции”, заяви по имейл Матю Ф. Фераро, адвокат по киберсигурност в адвокатската кантора Wilmer Hale.
Фераро заяви, че има големи щети и рискове при използването на нововъзникващите технологии с изкуствен интелект в следните области, които бизнес лидерите трябва да имат предвид.
Бизнес договори
“Информацията, въведена в AI, включително подсказките, които задават въпроси на чатботовете, трябва да се счита за публична, а не за лична. Това е така, защото чатботовете могат да използват постъпилите данни, за да развиват и подобряват своите услуги.
“Бизнесите трябва да внимават с това да въвеждат в подканите на чатботовете информация от клиенти, потребители или партньори, която е предмет на договорни ограничения за поверителност или други контролни механизми.”
Киберсигурност
“Чатботовете могат да създават зловреден софтуер и да се представят за човек в разговори, които могат да се използват за фишинг измами и измами в социалните мрежи.”
Поверителност на данните
“Инструментите за изкуствен интелект могат да събират лични данни, които могат да бъдат споделяни с трети страни, което потенциално нарушава законите за защита на личните данни.”
Заблуждаващи търговски практики
“Използването на AI, включително чатботове, за заблуждаване на потребителите може да наруши законите, забраняващи нелоялни и измамни търговски практики.”
Дискриминация
“Резултатите от изкуствения интелект могат да бъдат пристрастни към определени групи поради пристрастния характер на данните, върху които се обучават инструментите на изкуствения интелект. Регулаторните органи на САЩ, включително Белият дом и Федералната търговска комисия, наблягат на отговорното и недискриминационно използване на AI.”
Дезинформация
“Чатботовете могат да създават фалшива информация в голям мащаб на правдоподобен, разговорен английски език, дори ако потребителят не владее толкова добре езика.”
Етика
“Компаниите трябва да гарантират, че използването на AI е в съответствие с етичните задължения, особено тези, наложени от професионалните организации. Например, използването на изкуствен интелект за представляване на клиенти може да представлява неразрешена адвокатска практика.”
Правителствени договори
“Правителствените договори изискват откровеност от страна на изпълнителите. Изпълнителите трябва да бъдат прозрачни по отношение на използването на AI, за да избегнат подвеждането на правителството.”
Интелектуална собственост
“Използването на генеративен изкуствен интелект поражда различни видове рискове за интелектуалната собственост. Материалът, който се въвежда в изкуствения интелект, може да бъде защитен от притежатели на права. И като цяло не се знае кой е собственик на интелектуалната собственост, генерирана от AI; съдебните спорове в тази област са в ход.”
Валидация
“Чатботовете могат да произвеждат неверни, но авторитетно звучащи изявления. Бизнесите, използващи чатботове, трябва да валидират отговорите, преди да разчитат на тях за бизнес решения.”
Преди да възприемат изцяло AI и да изложат организациите си на тези и други кризисни случки, ръководителите трябва да обмислят внимателно и предпазливо придвижване напред с този нов технологичен инструмент.
Предприемане на превантивни мерки
“Бизнесите могат да се подготвят за изкуствения интелект, като предприемат превантивни мерки”, казва в изявление Шарлът Адамс, главен директор “Човешки ресурси” в Overnight Jobs, уебсайт за търсене на работа и кариерни съвети.
Определяне на области
“Първо, трябва да идентифицират областите от бизнеса си, в които искуственият интелект може да бъде най-ефективен и полезен, и да разработят ясна стратегия за интегриране на AI в тези области”, съветва тя.
Способности
“Те също така трябва да гарантират, че инфраструктурата им за данни е в състояние да поддържа инициативите за AI, като инвестират в технологии като изчисления в облак, анализ на данни и инструменти за машинно обучение. Tрябва да започнат с малки стъпки, като внедрят изкуствения интелект в няколко области на бизнеса и постепенно да разширят използването му с течение на времето”, добавя Адамс.
Обучение
“Трябва да се гарантира, че служителите са обучени да работят заедно с технологиите за изкуствен интелект и да разбират как той може да се използва за допълване на работата им. Те трябва да са наясно с етичните последици от AI и да разработят политики и насоки, които да гарантират отговорното използване на изкуствен интелект в техните бизнес операции.
“Предприемайки тези стъпки, бизнесите могат да се подготвят за интегрирането на AI и да се възползват от предимствата на повишената ефективност, производителност и иновации”, заключи тя.
Минимизиране на рисковете
Фераро заяви, че има стъпки, които компаниите могат да предприемат, за да помогнат за минимизиране на опасностите и рисковете от използването на изкуствен интелект.
“Бъдете предпазливи по отношение на светкавичното използване на изкуствен интелект от служителите на бизнеса. Въведете политики за защита на поверителността на защитената по договор информация”, препоръчва той.
“Спазвайте разпоредбите за защита на личните данни и опциите, които позволяват на потребителите да изтриват информацията си или да я защитят от споделяне с трети страни, [и] бъдете прозрачни с клиентите, служителите и партньорите относно използването на AI или чатботове.”
Фераро завърши, че корпоративните ръководители трябва “да се подготвят проактивно за опасностите от дезинформация, да комуникират посланията на компанията, да наблюдават корпоративните брандове онлайн и да са готови да реагират в случай на инцидент”.