Як дрэнная бяспека Generative AI можа пагражаць вашай інтэлектуальнай уласнасці

Што выдатна ў генератыўным ІІ? Ён вучыцца па ходзе.

Што складана ў генератыўным ІІ і бяспецы? Ён вучыцца па ходзе.

Падказкі, якія вы ўводзіце  і іншы генератыўны штучны інтэлект, могуць дапамагчы гэтым інструментам штучнага інтэлекту вучыцца. Але гэта не зусім добра , таму што гэтыя ўводы, якія могуць уключаць у сябе запатэнтаваную інфармацыю, могуць у канчатковым выніку быць уключаны ў вялікую моўную мадэль (LLM) штучнага інтэлекту і перададзены іншым карыстальнікам, калі яны адказваюць на іх пытанні.

Добрым прыкладам з’яўляецца самы папулярны інструме сваіх Умовах выкар

ыстання распрацоўшчык  кажа:

«Калі вы выкарыстоўваеце нашы не-API спажывецкія сэрвісы або DALL-E, мы можам выкарыстоўваць даныя, якія вы нам прадстаўляеце, для паляпшэння нашых мадэляў», — гаворыцца ва Умовах для гэтых спажывецкіх сэрвісаў ад 10 красавіка 2023 г. (Даныя карыстальнікаў НЕ праглынаецца пры апрацоўцы праз

Каб было яснрапануе форму адмовы , якую арганізацыі

огуць адправіць, каб прадухіліць паглынанне іх дадзеных бо DALL-E. Акрамя таго, Oкажа, што толькі невялікая выбарка дадзеных кліентаў будзе выкарыстоўвацца для навучання мадэлі. Але, па змаўчанні, рызыка існуе.

Такім чынам, што гэта значыць для інтэлектуальнай уласнасці і бяспекі ў эпоху генератыўнага ІІ?

Генератыўны штучны інтэлект і рызыкі для інтэлектуальнай уласнасці
Калі вы не ведаеце , што выкарыстоўваеце Generative AI у бяспечным для брэнда асяроддзі , самы бяспечны курс дзеянняў просты: не давайце AI тое, што вы не жадаеце ўключыць у яго сховішчы ведаў . (Мы абмяркуем «асяроддзе, бяспечнае для брэнда» Generative AI у наступным раздзеле гэтага паведамлення.)

Уявіце сабе кашмарны сцэнар , калі хтосьці спрабуе пачаць напісанне прэзентацыі, перадаючы падрабязнасці аб будучай дарожнай карце прадукту або іншыя канфідэнцыйныя паведамленні.

Пасля таго, як гэтыя даныя будуць праглынуты штучным інтэлектам, ёсць шанец, што яны будуць уключаны ў навучанне штучнага інтэлекту.  запэўнівае карыстальнікаў, што трэба пазбягаць выкарыстання канфідэнцыйнай інфармацыі пры выбарцы ўводу кліентаў у навучальных мэтах, але ні людзі, ні штучны інтэлект не ідэальныя. Калі канфідэнцыяльныя даныя кампаніі трапляюць у корпус , у канчатковым выніку яны могуць выцячы назад.

Samsung ужо жыве часткай гэтага кашмару. Некаторыя з яго распрацоўшчыкаў выкарыстоўвалі, каб дапамагчы напісаць код для новай праграмы. У працэсе, паведамляе TechRadar , яны загрузілі зыходны код, а таксама нататкі ўнутранай сустрэчы. Цяпер гэтыя Спіс нумароў WhatsApp  даныя захоўваюцца на серверахПакуль незразумела, ці ёсць у Samsung магчымасці паўторна абараніць дадзеныя. У адваротным выпадку ён стане даступным для канкурэнтаў.

Цяпер Samsung працуе над прадухіленнем новых уцечак даных, распрацоўваючы ўласнае генератыўнае рашэнне AI.

Зніжэнне рызыкі


Маркетолагі і прадаўцы B2B павінны прайсці навучанне разуменню рызык

абмену канфідэнцыйнай інфармацыяй з агульнадаступнай генератыўнай мадэллю штучнага інтэлекту.

Калі вы з’яўляецеся маркетолагам кантэнту B2B і выкарыстоўваеце такі інструмент, яб дапамагчы стварыць змест агульных ведаў у пачатку варонкі, гэта, напэўна, не праблема. Але калі вы шукаеце цэтлікі для напісання новых ініцыятыў або прапаноў прадуктаў, вам варта трымацца далей — або пачакаць, пакуль ваша ІТ-аддзел запоўніць форму адмовы і паведаміць вам, што інструмент бяспечны ў выкарыстанні.

Бяспечнае для брэнда асяроддзе ўжо існуе. Такія інструменты, як размоўная электронная пошта ад 6sense , Writer.com і Jasper.ai, стварылі бяспечнае асяроддзе, у якім брэнды могуць скарыстацца перавагамі генератыўнага штучнага інтэлекту без  Post and communicate regularly   вяртання іх даных у агульнадаступную LLM.

Бяспечнае для брэнда асяроддзе квітнее
Кампаніі спяшаюцца ствараць бяспечнае асяроддзе, дзе яны могуць разгортваць адладжаныя ўласныя мадэлі штучнага інтэлекту. Дакладна наладжаная генератыўная мадэль штучнага інтэлекту навучаецца на пэўных наборах даных, якія дазваляюць штучнаму інтэлекту ствараць кантэнт, адаптаваны для такіх выпадкаў выкарыстання, як:

Напісанне брэндавым голасам кампаніі
Выкарыстанне ўнутраных  usa ceo  дадзеных для адказаў на запыты
Надзейны адказ на вельмі тэхнічныя пытанні

Падумайце аб генератыўным інструменце штучнага інтэлекту як

аб нядаўна нанятым супрацоўніку. Ён прыносіць багатыя веды, атрыманыя вялікай моўнай мадэллю, такой як GPT-4. Ён быў добра адукаваны, але ён яшчэ не ведае асаблівасцяў вашай кампаніі.

У гэтым кантэксце дакладна настроеная карыстальніцкая мадэль штучнага інтэлекту падобная на ваш даведнік для супрацоўнікаў. Ён дае інструкцыі і прыклады, якія дапамагаюць генератыўнаму штучнаму інтэлекту лепш выконваць пэўныя задачы, неабходныя вашай кампаніі.

Важна адзначыць, што гэтыя ўласныя мадэлі штучнага інтэлекту могуць быць значна больш бяспечнымі . Напрыклад, OpenAI прапануе API, які кампаніі могуць выкарыстоўваць для падлучэння да яго моўных мадэляў, такіх як GPT-4. Затым кампаніі могуць выкарыстоўваць праграмы LLM для харчавання сваіх уласных наладжаных генератыўных прадуктаў штучнага інтэлекту. У адрозненне адOpenAI не захоўвае падказкі і вынікі, створаныя праз API .

Калі вы выкарыстоўваеце такі інструмент, як 6sense Conversational Email , які падключаецца да OpenAI праз API, інфармацыя, якую вы даяце AI, не будзе ўключана ў больш шырокі корпус. Вашы дадзеныя застаюцца толькі вамі.

Тады вам проста трэба пераканацца, што вашы ўласныя зборы даных і серверы ў бяспецы.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top