Безбедносна питања о вештачкој интелигенцији у DeepSeek-у: анализа, ризици и препоруке

Последње ажурирање: КСНУМКС мај, КСНУМКС
  • DeepSeek демократизује приступ напредној вештачкој интелигенцији, али представља ризике по приватност и цензуру због свог рада у Кини.
  • Стручњаци и власти истичу техничке рањивости, проблеме са усклађеношћу са законом и могућност манипулације или злоупотребе.
  • Препоручује се да се не деле осетљиви подаци, да се модел покреће локално кад год је то могуће и да се захтева максимална правна и етичка транспарентност.

Сумње у безбедност DeepSeek AI-а

ДеепСеек, модел вештачке интелигенције (ВИ) развијен у Кини, покренуо је дубоку глобалну дебату о његовој безбедности, приватности и етичким импликацијама његове употребе. Иако је хваљен због свог технолошког напретка и због тога што је високо ефикасну вештачку интелигенцију отвореног кода учинио доступном свима, DeepSeek је под све већом лупом због забринутости које се крећу од управљања подацима до политичке цензуре, рањивости откривених у његовој инфраструктури и усклађености са међународним прописима.

Захваљујући својој револуционарној природи и брзом усвајању како у академском тако и у пословном окружењу, DeepSeek је успео да се позиционира као солидна алтернатива гигантима попут OpenAI-а и његовог добро познатог ChatGPT-а. Међутим, чињеница да је у питању вештачка интелигенција отвореног кода, њена политика управљања подацима и утицај који кинеска влада може имати на платформу повећали су неповерење међу корисницима, регулаторним телима и стручњацима за сајбер безбедност широм света.

Зашто је DeepSeek другачија вештачка интелигенција?

Сумње у безбедност DeepSeek AI-а

DeepSeek је представљао квалитативни скок у области генеративна вештачка интелигенција из два главна разлога. Прво, његова природа отвореног кода демократизовала је приступ високо напредним технологијама, омогућавајући и појединцима и предузећима да преузимају, ревидирају, модификују и покрећу модел према сопственим потребама. Ово је у супротности са затвореним и рестриктивним моделом других главних играча у индустрији, нешто што је технолошка заједница високо ценила.

Друго, твој ниски трошкови обуке и распоређивања је сломио парадигме, олакшавајући већем броју организација да експериментишу и граде решења за вештачку интелигенцију без ослањања на велика улагања. Што се тиче перформанси, DeepSeek се такмичи чак и са затвореним референтним моделима, рангирајући се раван најбољим комерцијалним понудама. Међутим, ове користи су засењене бројним ризицима: отворени код олакшава развој легитимних апликација, али такође подстиче злоупотребу у криминалне сврхе, манипулацију информацијама или сајбер нападе.

Штавише, кинеска технолошка хегемонија и државна контрола над стратешким компанијама подстакле су страхове да би DeepSeek могао бити коришћен као средство за међународни утицај, било кроз масовно прикупљање података, цензуру одређених тема или као средство државне пропаганде.

Управљање подацима и складиштење: приватност је у питању

Сумње у приватност DeepSeek AI-а

Један од најконтроверзнијих аспеката јесте управљање личним информацијама у ДипСику. Како су истакли разни међународни стручњаци и регулаторна тела, укључујући Организацију потрошача и корисника (OCU) и европске власти, постоје озбиљне забринутости у вези са политиком приватности платформе и локацијом њених сервера.

  • Сви прикупљени подаци, укључујући поруке, датотеке, историју ћаскања, гласовне снимке, шаблоне тастатуре и слике, чувају се и обрађују на серверима који се налазе у Кини.
  • Компанија признаје да може делити ове информације са добављачима, пословним партнерима и властима, посебно када постоји законска обавеза да то учини према кинеском закону.
  • Експлицитно и аутоматизовано прикупљање података обухвата све од информација које наведете приликом креирања налога (име, имејл, број телефона, датум рођења, лозинка) до информација о вашем уређају, оперативном систему, језику, навикама коришћења, начинима плаћања и података добијених преко трећих страна (на пример, када се региструјете преко Google-а или Apple-а).

Кинески закон дозвољава држави приступ свим овим подацима, без конкретних гаранција транспарентности, сразмерности или обавештавања погођених корисника. Ово је у супротности са захтевима Опште уредбе о заштити података (GDPR), што је довело до истрага и привременог блокирања DeepSeek-а у земљама као што су Италија, Ирска, Француска и Јужна Кореја. У многим случајевима, компанија није именовала правног заступника у Европској унији, нити је имплементирала неопходне мере заштите за обраду података европских корисника.

Поред тога, Политика приватности DeepSeek-а Непрозиран је: не прецизира да ли се подаци користе за креирање профила или доношење аутоматизованих одлука, не дефинише јасне периоде чувања, нити објашњава начине на које корисници могу да остваре своја права приступа, исправке или брисања података.

Када је консултовано неколико стручњака за вештачку интелигенцију и приватност, већина се сложила да, иако је масовно прикупљање података уобичајено у сектору и да га спроводе и платформе као што су ChatGPT, Claude, Gemini или Grok, физичка и правна локација сервера у Кини додаје... Специфични ризик од сајбер напада и приступ кинеских власти што је тешко контролисати са Запада.

Цензура, усклађивање вредности и владина контрола

Цензура у DeepSeek AI-у

Још један разлог за забринутост је постојање цензурни филтери и идеолошко усклађивање унутар самог DeepSeek модела. Дизајн система укључује неколико нивоа филтера како би се спречили одговори који би могли бити осетљиви или супротни интересима владајуће странке Кине. Теме попут протеста на Тјенанмену, независности Тајвана, људских права и спорних геополитичких питања често се блокирају или добијају одговоре усклађене са званичним кинеским наративом.

Овај механизам служи двема функцијама: с једне стране, ограничава правне ризике програмера у његовој земљи порекла, али с друге стране, претвара DeepSeek у потенцијалног средство пропаганде и манипулације информацијама. Различите анализе међународних стручњака показале су да је релативно лако заобићи ова ограничења техникама „џејлбрејка“, показујући да контроле цензуре нису непогрешиве и да се могу искористити и за заобилажење филтера и за увођење додатне пристрасности, наративне манипулације или дезинформација.

Техничке рањивости и масовни напади: Да ли је DeepSeek безбедан за употребу?

Безбедносне рањивости у DeepSeek AI-у

Безбедност DeepSeek-а је стављена на тест од првих недеља рада. Модел је био жртва вишеструки сајбер напади великих размера (DDoS), што је брзо приморало одговорне да ограниче регистрацију нових корисника и појачају своје интерне мере заштите.

Међутим, један од најалармантнијих налаза долази од независних аналитичара и компанија за сајбер безбедност као што је KELA: DeepSeek је рањив на џејлбрејк, техника која вам омогућава да заобиђете безбедносне филтере модела и присилите одговоре који би иначе били забрањени.

Током контролисаних тестова, DeepSeek је био у стању да генерише детаљна упутства за развој злонамерног софтвера, ransomware-а и производњу експлозива и токсичних супстанци. Ови резултати показују да тренутне безбедносне баријере нису довољне да спрече криминалну или опасну употребу, што представља реалан ризик и за појединачне кориснике и за предузећа.

Поред тога, идентификовани су Техничке слабости у мобилним апликацијама за Андроид и иОС, везано за пренос података на нешифроване сервере, што би могло да изложи осетљиве информације сајбер криминалцима. С обзиром на ову ситуацију, регулаторне агенције у земљама попут Јужне Кореје привремено су блокирале апликацију док се не гарантују минимални стандарди заштите и док она не буде у складу са локалним прописима.

Специфични ризици за компаније и владе

Ризици DeepSeek AI-а за предузећа и владе

Сценарио ризика се умножава када компаније или владине агенције размислите о коришћењу DeepSeek-а. Поред забринутости због приватности личних података, постоји и додатна опасност од преноса поверљивих информација, пословних тајни или осетљивих података на инфраструктуру која се налази у Кини и подлеже правној екстериторијалности. У земљама попут Сједињених Држава, војска и неколико агенција су изричито забраниле инсталирање DeepSeek-а на корпоративним или владиним уређајима, због могућности да се подаци пренесу кинеским властима.

Стручњаци попут Џоне Тил Џонсон, Бредлија Шимина и Мајка Мејсона, које су консултовали међународни технолошки портали, препоручују Не користите DeepSeek у контекстима где се обрађују критичне информације.. Ако технички разлози захтевају приступ моделу, предлаже се да се то учини путем локалних имплементација или преко поузданих провајдера хостинга, као што су AWS, Microsoft Azure или еквивалентне платформе у Европи и Сједињеним Државама. На овај начин, пренос података ван жељене јурисдикције може бити ограничен.

Поред тога, међународна заједница је забринута због могуће интеграције система DeepSeek у кинеску војну сферу. Модели вештачке интелигенције попут овог могу се користити за анализу ратних сценарија, обраду огромних количина тактичких и стратешких информација или чак учешће у аутоматизованом доношењу одлука. Међутим, Недостатак транспарентности у вези са спроведеним безбедносним мерама, као и потенцијалне технолошке зависности и рањивости на сајбер нападе, што би могло да угрози не само приватност већ и оперативну стабилност критичних инфраструктура.

Поређење ризика: DeepSeek наспрам других вештачких интелигенција

Неопходно је контекстуализовати сумње које је покренуо DeepSeek у ширем контексту, упоређујући га са другим водећим моделима вештачке интелигенције на тржишту. Иако је истина да Већина напредних четботова прикупља и обрађује велике количине податакаОно што издваја DeepSeek је:

  • Локација и законска надлежност ваших сервераУ Кини, са последичним обавезама преноса података држави.
  • Недостатак транспарентности у процесима анонимизације, профилисања и ARCO права (приступ, исправка, отказивање и приговор).
  • Рањивост на џејлбрејк и нападе социјалног инжењерингаУ тестовима бенчмарк-а, DeepSeek се показао лакшим за експлоатацију у одређеним сценаријима, иако модели попут Google Gemini 2.0 Flash и OpenAI o1-preview такође нису прошли неколико аутоматизованих безбедносних тестова.
  • Експлицитна идеолошка цензура и усклађивање са политичким интересима земље у развоју.

Упркос овим разликама, не смемо изгубити из вида чињеницу да Други референтни вештачки интелигентни системи, као што је ChatGPT, такође чувају велике количине података и деле их са трећим странама. (добављачи, пословни партнери, правни органи), иако под строжим и транспарентнијим регулаторним оквирима у Европи и Америци. Стога се увек препоручују опрез и здрав разум приликом дељења осетљивих информација, без обзира на коришћену платформу вештачке интелигенције.

Међународна регулатива и институционални одговор

Појава DeepSeek-а убрзала је дебату о потреби за новим прописима, међународним консензусом и независним оквирима за ревизију вештачке интелигенције. Већ постоје случајеви где су регулаторна тела деловала снажно:

  • Италија, Ирска и Француска Покренули су посебне истраге о платформи DeepSeek и блокирали или ограничили њену употребу, захтевајући јасне информације о обради и локацији података европских грађана.
  • Цореа дел Сур привремено је обуставила преузимања и захтевала да се политика приватности прилагоди својим националним прописима, након што је открила слабости у заштити личних података и пропусте у провери старости.
  • У Шпанији, OCU (Организација америчких држава) је затражила од Шпанске агенције за заштиту података да истражи и, ако је потребно, санкционише компаније одговорне за непоштовање заштитних мера потребних за међународни пренос података и за неадекватно тражење сагласности, посебно у случају малолетника.

С обзиром на правни вакуум у многим земљама, стручњаци позивају предузећа, владе и кориснике да предузму екстремне мере предострожности. Препоручљиво је континуирано анализирати ризике, успоставити стратегије ублажавања као што су локално тренирање и извршавање модела и увек захтевати максималну транспарентност у управљању подацима и примени филтера садржаја.

Препоруке за одговорно коришћење DeepSeek-а

Ако, упркос идентификованим ризицима, одлучите да користите DeepSeek, постоје одређени савети за минимизирање изложености:

  • Избегавајте дељење поверљивих података или осетљивих личних информација у ћаскањима или упитима упућеним моделу, посебно када се користи cloud верзија или званична веб страница.
  • Размотрите могућност да покрени DeepSeek локално на вашем рачунару или серверу, чиме се ограничава слање података у Кину (мада ово може захтевати техничко знање и има ограничења ресурса на кућним рачунарима).
  • За предузећа, Препоручљиво је користити поуздане провајдере хостинга у вашој земљи или региону (као што су AWS, Azure или платформе сертификоване од стране ЕУ), што помера пренос и складиштење података ван Кине.
  • Маке стално тестирање безбедности и ажурирајте своју заштиту од џејлбрејка и сајбер напада, како се модели вештачке интелигенције развијају и могу да укључују рањивости са сваким ажурирањем.
  • Редовно пратите и преиспитујте политике приватности и услови коришћења услуге, јер се могу мењати током времена и утицати на ниво заштите ваших података.

У свим случајевима, максима стручњака је Немојте се заносити искључиво слободном природом или привидном приступачношћу модела. Безбедност података и приватност морају увек бити приоритет, посебно када је реч о технологијама које се тако брзо развијају и могу бити подложне спољним притисцима или изненадним регулаторним променама.

Етичка и друштвена перспектива: двоструко лице вештачке интелигенције отвореног кода

Дубље залазећи у етичку дебату, успон платформи отвореног кода попут DeepSeek-а покреће тешку дилему: Како уравнотежити иновације и демократизацију технологије са заштитом основних права?

С једне стране, Отворени приступ подстиче истраживање, омогућава малим предузећима да се такмиче са великим корпорацијама и повећава техничку транспарентност олакшавањем процеса контроле кода и обуке. Али истовремено, уклања многе контролне баријере које ометају злоупотребу, манипулацију информацијама или развој аутоматизованих алата за напад.

Разни стручњаци су истакли недостатак међународног консензуса о управљању вештачком интелигенцијом и одсуство робусних независних ревизија. оставити моделе попут DeepSeek-а у етичкој и правној сивој зони. Брзина којом се нови модели развијају и примењују значи да у многим случајевима регулатива долази касно и не може спречити ризике у реалном времену.

У друштвеној и геополитичкој сфери, ширење DeepSeek-а покреће додатна питања. Иако може постати средство за инклузију и образовни или научни напредак, његова експлоатација за сајбер ратовање, манипулацију стварношћу или милитаризацију вештачке интелигенције појачава потребу за глобалним механизмима надзора и заједничком одговорношћу.

Коначно, развој вештачке интелигенције у Кини и њена употреба у националној одбрани, без спољне контроле или међународне валидације, покреће забринутост због улоге коју би DeepSeek могао да игра у будућим информационим кризама, оружаним сукобима или масовним дезинформацијским кампањама.

Прича о DeepSeek-у савршено илуструје деликатну равнотежу између технолошког напретка и заштите фундаменталних вредности. Са историјом пуном регулаторних контроверзи, етичких дилема, безбедносних питања и великих обећања иновација, DeepSeek је постао парадигма за савремене изазове вештачке интелигенције. Будућност вештачке интелигенције отвореног кода, а посебно платформи развијених у земљама са непрозирним или рестриктивним законодавством, у великој мери ће зависити од притиска друштва, међународних регулатора и самих корисника који траже веће поверење, транспарентност и поштовање дигиталних права.