Самити о вештачкој интелигенцији морају поново озбиљно схватити безбедност


Самити о вештачкој интелигенцији морају поново озбиљно схватити безбедност
Das Problem
Вештачка интелигенција је побољшала људску продуктивност и унапредила медицину, али брз напредак носи ризике који превазилазе све националне границе. Упозорења водећих стручњака су јасна: само кроз међународну сарадњу свет може да се суочи са опасностима, од злоупотребе до губитка контроле. [1,2]
На првом Самиту о безбедности вештачке интелигенције (Блечли 2023), декларација је упозорила на „потенцијал вештачке интелигенције за озбиљну, чак и катастрофалну, штету“ и потписници су одлучили да раде заједно како би осигурали да вештачка интелигенција остане безбедна. [3]
Али на Самиту о акцији вештачке интелигенције (Париз 2025), безбедност је била потиснута економским интересима. Професор Макс Тегмарк са МИТ-а је рекао да је „скоро изгледало као да покушавају да пониште Блечли“, називајући изостављање безбедности у декларацији „рецептом за катастрофу“. [4,5]
Сада се приближава Самит о утицају вештачке интелигенције (Делхи, 19-20. фебруар 2026), са још више присутних извршних директора него у Паризу.
„Безбедност“ преко „Акције“ до „Утицаја“ - тренд изгледа суморно. Ипак, преко 100 британских парламентараца подржава обавезујуће прописе о најмоћнијим системима вештачке интелигенције, а дванаест добитника Нобелове награде и стотине стручњака позивају владе да постигну међународни споразум о црвеним линијама за вештачку интелигенцију - осигуравајући да су оперативне, са робусним механизмима спровођења - до краја 2026. Године“. [6,7]
Самит у Делхију је кључни тренутак да се послуша њихов позив. Заједно можемо да променимо курс!
Наш захтев
Самити о вештачкој интелигенцији морају поново озбиљно схватити безбедност. Позивамо делегацију Србије да се јавно заложи за следеће приоритете на предстојећем Самиту о утицају вештачке интелигенције:
1. Обавезујући стандарди безбедности. Добровољна саморегулација не ствара праву безбедност. Потребна су нам независна правила која се могу проверити и спроводити.
2. Црвене линије. Вештачкој интелигенцији су потребне јасне границе: Који ризици су неприхватљиви? Када се развој мора зауставити? Таква ограничења могу се спроводити само на међународном нивоу.
Технолошки напредак није циљ сам по себи, већ га треба одговорно обликовати у интересу човечанства.
Сваки потпис показује: O будућности вештачке интелигенције не смеју да одлучују само корпорације. Велика већина становништва жели већу заштитуhttps://pauseai.info/polls-and-surveys а ми желимо право демократско учешће! [8]
Шта су црвене линије за вештачку интелигенцију?
Црвене линије забрањују системе вештачке интелигенције који представљају неприхватљив ризик за све нас, укључујући системе који:
• подлежу неконтролисаном самоусавршавању,
• систематски обмањују људе,
• или омогућавају катастрофалну злоупотребу као што је развој биолошког оружја.
Како би се међународни споразум могао спровести?
Обука напредних система вештачке интелигенције тренутно захтева огромне центре података са специјализованим чиповима. Ова концентрација чини регулацију веома изводљивом.
Међународни споразум би могао да почива на три стуба:
1. Међународни надзор: Ново међународно тело које проверава усклађеност са безбедносним стандардима у сарадњи са националним властима. Узбуњивачи су заштићени.
2. Транспарентност рачунарства: Велики тренинзи модела се региструју и надгледају. Чипови вештачке интелигенције могу бити дизајнирани тако да се њихова употреба може пратити.
3. Последице кршења: Државе се договарају о заједничким санкцијама против актера који пређу црвене линије и развијају стратегије за реаговање на кризе.
Шта кажу стручњаци
„Ублажавање ризика од нестајања услед вештачке интелигенције требало би да буде глобални приоритет, заједно са другим ризицима друштвених размера, као што су пандемије и нуклеарни рат.“ - Изјава о ризику од вештачке интелигенције, коју су потписали 3 најцитиранија научника за вештачку интелигенцију и извршни директори водећих компанија за вештачку интелигенцију
„Радио сам у тиму за безбедност OpenAI-а четири године и могу вам са сигурношћу рећи: компаније за вештачку интелигенцију не схватају вашу безбедност довољно озбиљно и нису на добром путу да реше критичне безбедносне проблеме.“ - Стивен Адлер, бивши руководилац за евалуацију опасних могућности OpenAI-а
„Наглашавамо: неки системи вештачке интелигенције данас већ показују способност и склоност да поткопају напоре својих твораца у погледу безбедности и контроле.“ - Консензус водећих истраживача безбедности вештачке интелигенције, укључујући Стјуарта Расела и Ендруа Јаоа. Међународни дијалози о безбедности вештачке интелигенције, Шангај 2025.
О нама
PauseAI Serbia је иницијатива која окупља грађане, стручњаке и ентузијасте око једног важног питања - како ми као друштво желимо да обликујемо развој и примену вештачке интелигенције. Кроз јавне форуме, едукацију и отворене разговоре, организација подстиче критичко размишљање о технолошким променама које утичу на рад, образовање, безбедност и људска права.
За разлику од приступа који вештачку интелигенцију види искључиво као алат за убрзање и профит, PauseAI Serbia заговара паузу + тренутак размишљања, постављање правих питања и укључивање шире јавности у технолошки дијалог. Иницијатива је део међународног покрета, али делује локално, са јасним фокусом на друштвени контекст Србије.
Више информација о догађајима и темама које покреће доступно је на веб страници: https://pauseai.rs
Референце
1. https://aistatement.com/
2. https://superintelligence-statement.org/
3. https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023
4. https://time.com/7221384/ai-regulation-takes-backseat-paris-summit/
5. https://fortune.com/2025/02/11/paris-ai-action-summit-ai-safety-sidelined-economic-opportunity-promoted/
6. https://controlai.com/statement
7. https://red-lines.ai/
8. https://pauseai.info/polls-and-surveys

3.887
Das Problem
Вештачка интелигенција је побољшала људску продуктивност и унапредила медицину, али брз напредак носи ризике који превазилазе све националне границе. Упозорења водећих стручњака су јасна: само кроз међународну сарадњу свет може да се суочи са опасностима, од злоупотребе до губитка контроле. [1,2]
На првом Самиту о безбедности вештачке интелигенције (Блечли 2023), декларација је упозорила на „потенцијал вештачке интелигенције за озбиљну, чак и катастрофалну, штету“ и потписници су одлучили да раде заједно како би осигурали да вештачка интелигенција остане безбедна. [3]
Али на Самиту о акцији вештачке интелигенције (Париз 2025), безбедност је била потиснута економским интересима. Професор Макс Тегмарк са МИТ-а је рекао да је „скоро изгледало као да покушавају да пониште Блечли“, називајући изостављање безбедности у декларацији „рецептом за катастрофу“. [4,5]
Сада се приближава Самит о утицају вештачке интелигенције (Делхи, 19-20. фебруар 2026), са још више присутних извршних директора него у Паризу.
„Безбедност“ преко „Акције“ до „Утицаја“ - тренд изгледа суморно. Ипак, преко 100 британских парламентараца подржава обавезујуће прописе о најмоћнијим системима вештачке интелигенције, а дванаест добитника Нобелове награде и стотине стручњака позивају владе да постигну међународни споразум о црвеним линијама за вештачку интелигенцију - осигуравајући да су оперативне, са робусним механизмима спровођења - до краја 2026. Године“. [6,7]
Самит у Делхију је кључни тренутак да се послуша њихов позив. Заједно можемо да променимо курс!
Наш захтев
Самити о вештачкој интелигенцији морају поново озбиљно схватити безбедност. Позивамо делегацију Србије да се јавно заложи за следеће приоритете на предстојећем Самиту о утицају вештачке интелигенције:
1. Обавезујући стандарди безбедности. Добровољна саморегулација не ствара праву безбедност. Потребна су нам независна правила која се могу проверити и спроводити.
2. Црвене линије. Вештачкој интелигенцији су потребне јасне границе: Који ризици су неприхватљиви? Када се развој мора зауставити? Таква ограничења могу се спроводити само на међународном нивоу.
Технолошки напредак није циљ сам по себи, већ га треба одговорно обликовати у интересу човечанства.
Сваки потпис показује: O будућности вештачке интелигенције не смеју да одлучују само корпорације. Велика већина становништва жели већу заштитуhttps://pauseai.info/polls-and-surveys а ми желимо право демократско учешће! [8]
Шта су црвене линије за вештачку интелигенцију?
Црвене линије забрањују системе вештачке интелигенције који представљају неприхватљив ризик за све нас, укључујући системе који:
• подлежу неконтролисаном самоусавршавању,
• систематски обмањују људе,
• или омогућавају катастрофалну злоупотребу као што је развој биолошког оружја.
Како би се међународни споразум могао спровести?
Обука напредних система вештачке интелигенције тренутно захтева огромне центре података са специјализованим чиповима. Ова концентрација чини регулацију веома изводљивом.
Међународни споразум би могао да почива на три стуба:
1. Међународни надзор: Ново међународно тело које проверава усклађеност са безбедносним стандардима у сарадњи са националним властима. Узбуњивачи су заштићени.
2. Транспарентност рачунарства: Велики тренинзи модела се региструју и надгледају. Чипови вештачке интелигенције могу бити дизајнирани тако да се њихова употреба може пратити.
3. Последице кршења: Државе се договарају о заједничким санкцијама против актера који пређу црвене линије и развијају стратегије за реаговање на кризе.
Шта кажу стручњаци
„Ублажавање ризика од нестајања услед вештачке интелигенције требало би да буде глобални приоритет, заједно са другим ризицима друштвених размера, као што су пандемије и нуклеарни рат.“ - Изјава о ризику од вештачке интелигенције, коју су потписали 3 најцитиранија научника за вештачку интелигенцију и извршни директори водећих компанија за вештачку интелигенцију
„Радио сам у тиму за безбедност OpenAI-а четири године и могу вам са сигурношћу рећи: компаније за вештачку интелигенцију не схватају вашу безбедност довољно озбиљно и нису на добром путу да реше критичне безбедносне проблеме.“ - Стивен Адлер, бивши руководилац за евалуацију опасних могућности OpenAI-а
„Наглашавамо: неки системи вештачке интелигенције данас већ показују способност и склоност да поткопају напоре својих твораца у погледу безбедности и контроле.“ - Консензус водећих истраживача безбедности вештачке интелигенције, укључујући Стјуарта Расела и Ендруа Јаоа. Међународни дијалози о безбедности вештачке интелигенције, Шангај 2025.
О нама
PauseAI Serbia је иницијатива која окупља грађане, стручњаке и ентузијасте око једног важног питања - како ми као друштво желимо да обликујемо развој и примену вештачке интелигенције. Кроз јавне форуме, едукацију и отворене разговоре, организација подстиче критичко размишљање о технолошким променама које утичу на рад, образовање, безбедност и људска права.
За разлику од приступа који вештачку интелигенцију види искључиво као алат за убрзање и профит, PauseAI Serbia заговара паузу + тренутак размишљања, постављање правих питања и укључивање шире јавности у технолошки дијалог. Иницијатива је део међународног покрета, али делује локално, са јасним фокусом на друштвени контекст Србије.
Више информација о догађајима и темама које покреће доступно је на веб страници: https://pauseai.rs
Референце
1. https://aistatement.com/
2. https://superintelligence-statement.org/
3. https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023
4. https://time.com/7221384/ai-regulation-takes-backseat-paris-summit/
5. https://fortune.com/2025/02/11/paris-ai-action-summit-ai-safety-sidelined-economic-opportunity-promoted/
6. https://controlai.com/statement
7. https://red-lines.ai/
8. https://pauseai.info/polls-and-surveys

3.887
Diese Petition teilen
Petition am 4. Februar 2026 erstellt