Qısa cavab: Generativ süni intellektdən istifadə edən tərtibatçılar yalnız modelin çıxışı üçün deyil, bütün sistem üçün məsuliyyət daşıyırlar. Süni intellekt qərarlara, koda, məxfiliyə və ya istifadəçi etibarına təsir etdikdə, onlar təhlükəsiz tətbiqlər seçməli, nəticələri yoxlamalı, məlumatları qorumalı, zərəri azaltmalı və insanların səhvləri nəzərdən keçirə, dəyişdirə və düzəldə bilməsini təmin etməlidirlər.
Əsas nəticələr:
Doğrulama : Mənbələr, testlər və ya insan rəyi təsdiqləyənə qədər cilalanmış nəticələrə etibarsız kimi yanaşın.
Məlumatların qorunması : Sorğu məlumatlarını minimuma endirin, identifikatorları silin və qeydləri, giriş nəzarətlərini və təchizatçıları təhlükəsizləşdirin.
Ədalət : Stereotipləri və qeyri-bərabər uğursuzluq nümunələrini müəyyən etmək üçün demoqrafik göstəricilər və kontekstlər üzrə test edin.
Şəffaflıq : Süni intellektdən istifadəni aydın şəkildə etiketləyin, məhdudiyyətlərini izah edin və insan tərəfindən nəzərdən keçirilmə və ya apelyasiya təklif edin.
Hesabatlılıq : Başlatmadan əvvəl yerləşdirmə, hadisələr, monitorinq və geri qaytarma üçün aydın sahiblər təyin edin.

Bundan sonra oxumaq istəyə biləcəyiniz məqalələr:
🔗 Proqram təminatı hazırlayıcıları üçün ən yaxşı süni intellekt alətləri: Ən yaxşı süni intellektlə işləyən kodlaşdırma köməkçiləri
Daha sürətli və daha təmiz inkişaf iş axınları üçün ən yaxşı süni intellekt kodlaşdırma köməkçilərini müqayisə edin.
🔗 Məhsuldarlığı artırmaq üçün tərtibatçılar üçün ən yaxşı 10 süni intellekt vasitəsi
Daha ağıllı kodlaşdırma və sürət üçün tərtibatçı süni intellekt alətlərinin sıralama siyahısı.
🔗 Niyə süni intellekt cəmiyyət və etimad üçün pis ola bilər
Real həyatdakı zərərləri izah edir: qərəz, məxfilik, iş yerləri və yanlış məlumat riskləri.
🔗 Süni intellekt yüksək riskli qərarlarda həddindən artıq irəli gedibmi?
Süni intellekt sərhədləri aşdıqda aşağıdakıları müəyyən edir: nəzarət, dərin saxtakarlıq, inandırma, razılıq olmaması.
Niyə Generativ Süni İntellektdən istifadə edən Tərtibatçıların məsuliyyəti insanların düşündüyündən daha vacibdir?
Bir çox proqram xətası qıcıqlandırıcıdır. Bir düymə qırılır. Bir səhifə yavaş-yavaş yüklənir. Nəsə çökür və hamı inildəyir.
Generativ süni intellekt problemləri fərqli ola bilər. Onlar incə də ola bilər.
Model səhv edərkən özünəinamlı səslənə bilər. NIST GenAI Profili Açıq-aydın xəbərdarlıq əlamətləri olmadan qərəzliliyi təkrarlaya bilər. NIST GenAI Profili Ehtiyatsızlıqla istifadə edildikdə həssas məlumatları ifşa edə bilər. LLM Tətbiqləri üçün OWASP Top 10 ICO-nun generativ süni intellekt üçün səkkiz sualı İstehsalda dərin bir şəkildə utanc verici bir şəkildə uğursuz olana qədər işləyən kod yarada bilər. LLM Tətbiqləri üçün OWASP Top 10 Heç vaxt yatmayan və zaman-zaman heyrətamiz inamla faktlar icad edən çox həvəsli bir təcrübəçi işə götürmək kimidir.
Buna görə də Generativ Süni İntellektdən (GENERATİV SÜY) istifadə edən Tərtibatçıların məsuliyyəti sadə tətbiqdən daha böyükdür. Tərtibatçılar artıq yalnız məntiq sistemləri qurmurlar. Onlar qeyri-səlis kənarları, gözlənilməz nəticələri və real sosial nəticələri olan ehtimal sistemləri qururlar. NIST SÜYYƏTİ RMF
Bu o deməkdir ki, məsuliyyətə aşağıdakılar daxildir:
-
NIST AI RMF modelinin limitlərini anlamaq
-
istifadəçi məxfiliyinin qorunması, süni intellekt və məlumatların qorunması üzrə ICO təlimatı
-
zərərli çıxışların azaldılması NIST GenAI Profili
-
Etibar verilməzdən əvvəl dəqiqliyin yoxlanılması NIST GenAI Profili
-
İnsan rolunun aydınlaşdırılması OECD süni intellekt prinsipləri
-
Süni intellekt uğursuz olduqda ehtiyat yollarının dizaynı OECD Süni intellekt prinsipləri NCSC-nin süni intellekt təhlükəsizliyi qaydaları
-
sistemin açıq şəkildə sənədləşdirilməsi OECD Süni İntellekt Prinsipləri
Necə getdiyini bilirsiniz - bir alət sehrli hiss etdikdə, insanlar ona şübhə etməyi dayandırırlar. Tərtibatçılar bu qədər rahat olmağa imkan verə bilməzlər.
Generativ süni intellektdən istifadə edən tərtibatçıların məsuliyyətinin yaxşı bir versiyasını nə təşkil edir? 🛠️
Məsuliyyətin yaxşı bir versiyası icraedici deyil. Bu, sadəcə alt hissəyə bir xəbərdarlıq əlavə edib onu etika adlandırmaq deyil. Bu, dizayn seçimlərində, sınaq vərdişlərində və məhsul davranışında özünü göstərir.
Generativ süni intellektdən istifadə edən tərtibatçıların məsuliyyətinin güclü bir versiyası adətən belə görünür:
-
NIST AI RMF-in qəsdən istifadəsi
-
Süni intellekt dəbli səsləndiyi üçün məhsula daxil edilmək üçün deyil, əsl problem üçün istifadə olunur.
-
-
İnsan nəzarəti OECD süni intellekt prinsipləri
-
İnsanlar çıxışları nəzərdən keçirə, düzəldə, ləğv edə və ya rədd edə bilərlər.
-
-
Dizaynla təhlükəsizlik NCSC təhlükəsiz süni intellekt qaydaları
-
Risk nəzarəti erkən mərhələdə qurulur, sonradan yapışdırılmır.
-
-
Şəffaflıq OECD Süni İntellekt Prinsipləri Avropa Komissiyası Süni İntellekt Qanununa ümumi baxış
-
İstifadəçilər məzmunun süni intellekt tərəfindən yaradıldığını və ya süni intellekt tərəfindən dəstəkləndiyini başa düşürlər.
-
-
Məlumatların idarə edilməsi ICO-nun generativ süni intellekt üçün səkkiz sualı
-
Həssas məlumatlara diqqətlə yanaşılır və onlara giriş məhduddur.
-
-
Ədalət yoxlamaları NIST GenAI Profilinin ICO təlimatı süni intellekt və məlumatların qorunması üzrə
-
Sistem qərəzlilik, qeyri-bərabər performans və zərərli nümunələr üçün sınaqdan keçirilir.
-
-
Davamlı monitorinq NIST AI RMF NCSC təhlükəsiz AI qaydaları
-
Başlatma finiş xətti deyil. Daha çox start fitinə bənzəyir.
-
Əgər bu çox səslənirsə, deməli... elədir. Amma qərarlara, inanclara və davranışa geniş miqyasda təsir göstərə bilən texnologiya ilə işləyərkən bu, problem deyil. OECD Süni İntellekt Prinsipləri
Müqayisə Cədvəli - Generativ Süni İntellektdən istifadə edən Tərtibatçıların əsas məsuliyyəti qısaca 📋
| Məsuliyyət sahəsi | Kimə təsir edir | Gündəlik geliştirici təcrübəsi | Niyə vacibdir |
|---|---|---|---|
| Dəqiqlik və yoxlama | istifadəçilər, komandalar, müştərilər | Nəticələri nəzərdən keçirin, doğrulama təbəqələri əlavə edin, kənar halları sınaqdan keçirin | , NIST GenAI Profilinin kobud kombinasiyasıdır. |
| Məxfilik qorunması | istifadəçilər, müştərilər, daxili işçilər | Həssas məlumatların istifadəsini minimuma endirin, sorğuları silin, qeydləri idarə edin | Şəxsi məlumatlar sızdıqdan sonra diş məcunu borudan çıxır 😬 ICO-nun generativ süni intellekt üçün səkkiz sualı OWASP LLM tətbiqləri üçün ən yaxşı 10 |
| Qərəz və ədalət | az təmsil olunan qruplar, bütün istifadəçilər həqiqətən | Çıxışların auditi, müxtəlif girişləri sınaqdan keçirmək, təhlükəsizlik tədbirlərini tənzimləmək | Zərər həmişə yüksək deyil - bəzən sistemli və sakit olur NIST GenAI Profili Süni intellekt və məlumatların qorunması üzrə ICO rəhbərliyi |
| Təhlükəsizlik | şirkət sistemləri, istifadəçilər | Modelə girişi məhdudlaşdırın, təcili inyeksiyadan, riskli hərəkətlərdən qorunun | Bir ağıllı istismar etimadı tez bir zamanda sarsıda bilər. LLM Tətbiqləri üçün OWASP Top 10. NCSC süni intellekt və kibertəhlükəsizlik üzrə |
| Şəffaflıq | son istifadəçilər, tənzimləyicilər, dəstək qrupları | Süni intellekt davranışını aydın şəkildə etiketləyin, məhdudiyyətləri, sənəd istifadəsini izah edin | İnsanlar maşının OECD Süni İntellekt Prinsiplərinin Təcrübə Məcəlləsinə süni intellekt tərəfindən yaradılan məzmunun işarələnməsi və etiketlənməsi ilə bağlı |
| Hesabatlılıq | məhsul sahibləri, hüquqşünaslar, inkişaf qrupları | Mülkiyyət, hadisələrin idarə olunması, eskalasiya yollarını müəyyənləşdirin | "Süni intellekt bunu etdi" yetkinlərin cavabı deyil. OECD Süni intellekt prinsipləri |
| Etibarlılıq | məhsula toxunan hər kəs | Uğursuzluqları izləyin, etibarlılıq hədlərini təyin edin, ehtiyat məntiqi yaradın | Modellər gözlənilməz şəkildə uğursuzluğa düçar olur və zaman-zaman dramatik kiçik bir epizodla qarşılaşırlar. NIST AI RMF NCSC təhlükəsiz AI qaydaları |
| İstifadəçi rifahı | xüsusilə həssas istifadəçilər | Manipulyativ dizayndan çəkinin, zərərli nəticələri məhdudlaşdırın, yüksək riskli istifadə hallarını nəzərdən keçirin | Bir şeyin yaradıla bilməsi, onun OECD Süni İntellekt Prinsipləri NIST Süni İntellekt RMF |
Əlbəttə ki, masa bir az qeyri-bərabərdir, amma bu, mövzuya uyğundur. Əsl məsuliyyət də qeyri-bərabərdir.
Məsuliyyət ilk sualdan əvvəl başlayır - düzgün istifadə halını seçmək 🎯
Tərtibatçıların ən böyük məsuliyyətlərindən biri generativ süni intellektdən ümumiyyətlə istifadə edilib-edilməməsinə . NIST süni intellekt RMF
Bu, açıq-aydın səslənir, amma həmişə buraxılır. Komandalar bir modeli görür, həyəcanlanır və onu qaydalar, axtarış və ya adi proqram təminatı məntiqi ilə daha yaxşı idarə oluna biləcək iş axınlarına məcbur etməyə başlayırlar. Hər problemin dil modelinə ehtiyacı yoxdur. Bəzi problemlər üçün verilənlər bazası və sakit bir günortadan sonra lazımdır.
Tikintidən əvvəl dizaynerlər soruşmalıdırlar:
-
Tapşırıq açıqdır, yoxsa deterministikdir?
-
Yanlış çıxış zərər verə bilərmi?
-
İstifadəçilərə yaradıcılığa, proqnozlaşdırmaya, ümumiləşdirməyə, avtomatlaşdırmaya, yoxsa sadəcə sürətə ehtiyac varmı?
-
İnsanlar nəticəyə həddindən artıq etibar edəcəklərmi? NIST GenAI Profili
-
İnsan nəticələri realist şəkildə nəzərdən keçirə bilərmi? OECD süni intellekt prinsipləri
-
Model səhv olduqda nə baş verir? OECD süni intellekt prinsipləri
Məsuliyyətli bir geliştirici sadəcə "Bunu tikə bilərikmi?" deyə soruşmur. Onlar "Bunu bu şəkildə tikmək lazımdırmı?" deyə soruşurlar. NIST AI RMF
Bu sual özü bir çox cəfəngiyatın qarşısını alır.
Dəqiqlik bonus xüsusiyyət deyil, məsuliyyətdir ✅
Gəlin açıq olaq - generativ süni intellektdə ən böyük tələlərdən biri bəlağəti həqiqətlə səhv salmaqdır. Modellər tez-tez cilalanmış, strukturlaşdırılmış və dərin inandırıcı səslənən cavablar verirlər. Bu, məzmun etibarla örtülmüş cəfəngiyata qədər gözəldir. NIST GenAI Profili
Beləliklə, Generativ Süni İntellektdən istifadə edən Tərtibatçıların məsuliyyətinə yoxlama üçün tikinti daxildir.
Bu o deməkdir ki:
-
mümkün olduqda NIST GenAI Profilinin
-
yaradılan məzmunu təsdiqlənmiş faktlardan ayırmaq OECD süni intellekt prinsipləri
-
NIST AI RMF-də etibarlılıq hədlərini diqqətlə əlavə etmək
-
Yüksək riskli nəticələr üçün icmal iş axınlarının yaradılması OECD Süni İntellekt Prinsipləri
-
modelin kritik kontekstlərdə improvizasiyasının qarşısının alınması NIST GenAI Profili
-
Sistemi pozmağa və ya yanıltmağa çalışan test tapşırıqları OWASP LLM Tətbiqləri üçün Top 10
Bu, aşağıdakı kimi sahələrdə çox vacibdir:
-
səhiyyə
-
maliyyə
-
hüquqi iş axınları
-
təhsil
-
müştəri dəstəyi
-
müəssisə avtomatlaşdırılması
-
kod generasiyası
Məsələn, yaradılan kod təhlükəsizlik qüsurlarını və ya məntiq səhvlərini gizlədərkən səliqəli görünə bilər. Onu kor-koranə surətləndirən tərtibatçı səmərəli deyil - onlar sadəcə riskləri daha gözəl formatda autsorsinq edirlər. LLM Tətbiqləri üçün OWASP Top 10 NCSC Süni intellekt və kibertəhlükəsizlik üzrə
Model kömək edə bilər. Nəticə hələ də tərtibatçıya məxsusdur. OECD Süni İntellekt Prinsipləri
Məxfilik və məlumatların idarə olunması müzakirə mövzusu deyil 🔐
İşlər tez bir zamanda ciddiləşdiyi yer budur. Generativ süni intellekt sistemləri tez-tez sorğulara, qeydlərə, kontekst pəncərələrinə, yaddaş təbəqələrinə, analitikaya və üçüncü tərəf infrastrukturuna əsaslanır. Bu, həssas məlumatların sızması, saxlanması və ya istifadəçilərin heç gözləmədiyi şəkildə yenidən istifadə edilməsi üçün çoxlu şans yaradır. ICO-nun generativ süni intellekt üçün səkkiz sualı OWASP LLM Tətbiqləri üçün Top 10
Tərtibatçılar aşağıdakıları qorumaq üçün məsuliyyət daşıyırlar:
-
şəxsi məlumatlar
-
maliyyə qeydləri
-
tibbi məlumatlar
-
daxili şirkət məlumatları
-
ticarət sirləri
-
identifikasiya tokenləri
-
müştəri rabitəsi
Məsuliyyətli təcrübələrə aşağıdakılar daxildir:
-
Modelə daxil olan məlumatların minimuma endirilməsi ICO-nun generativ süni intellekt üçün səkkiz sualı
-
NIST GenAI Profilinin identifikatorlarını maskalamaq və ya silmək
-
Süni intellekt və məlumatların qorunması üzrə ICO təlimatları, jurnal saxlamasının məhdudlaşdırılması
-
LLM Tətbiqləri üçün OWASP Top 10-a kimin daxil ola biləcəyinə nəzarət
-
satıcı parametrlərini diqqətlə nəzərdən keçirmək NCSC təhlükəsiz süni intellekt qaydaları
-
yüksək riskli iş axınlarının təcrid edilməsi NCSC təhlükəsiz süni intellekt qaydaları
-
məxfilik davranışını istifadəçilər üçün görünən etmək ICO-nun generativ süni intellekt üçün səkkiz sualı
Bu, "bunu düşünməyi unutduğumuz"un kiçik bir səhv olmadığı sahələrdən biridir. Bu, etibarı sarsıdan bir uğursuzluqdur.
Və bir dəfə çatlayan etibar, düşmüş şüşə kimi yayılır. Bəlkə də ən gözəl metafora deyil, amma başa düşürsən.
Qərəz, ədalət və təmsilçilik - daha sakit məsuliyyətlər ⚖️
Generativ süni intellektdə qərəz nadir hallarda cizgi filminin canisidir. Adətən bundan daha sürüşkən olur. Model aşkar həyəcan siqnalları vermədən stereotipli vəzifə təsvirləri, qeyri-bərabər moderasiya qərarları, birtərəfli tövsiyələr və ya mədəni cəhətdən dar fərziyyələr yarada bilər. NIST GenAI Profili
Buna görə də Generativ Süni İntellektdən istifadə edən Tərtibatçıların məsuliyyətinə aktiv ədalətlilik işi daxildir.
Tərtibatçılar aşağıdakıları etməlidirlər:
-
Müxtəlif demoqrafik qruplardan və kontekstlərdən test tapşırıqları NIST GenAI Profili
-
NIST GenAI Profilinin stereotipləri və istisnaları üçün nəticələrin icmalı
-
qiymətləndirmə zamanı müxtəlif perspektivləri əhatə edən NIST AI RMF
-
qeyri-bərabər nasazlıq nümunələrinə diqqət yetirin NIST GenAI Profili
-
bir dil üslubunun və ya mədəni normanın hər kəsə uyğun olduğunu düşünməkdən çəkinin Süni intellekt və məlumatların qorunması üzrə ICO rəhbərliyi
-
zərərli çıxış üçün hesabat kanalları yaradın NIST AI RMF
Sistem ümumilikdə yaxşı işləyə bilər və eyni zamanda bəzi istifadəçilərə digərlərindən daha pis xidmət göstərə bilər. Bu, sadəcə orta performansın idarəetmə panelində yaxşı görünməsi səbəbindən məqbul deyil. Süni intellekt və məlumatların qorunması üzrə ICO təlimatı NIST GenAI Profili
Bəli, ədalət səliqəli yoxlama siyahısından daha çətindir. Onun özündə mühakimə var. Kontekst. Güzəştlər. Həmçinin bir növ narahatlıq. Lakin bu, məsuliyyəti aradan qaldırmır - onu təsdiqləyir. Süni intellekt və məlumatların qorunması üzrə ICO rəhbərliyi
Təhlükəsizlik artıq qismən sürətli dizayn, qismən mühəndislik intizamıdır 🧱
Generativ süni intellekt təhlükəsizliyi özünəməxsus bir heyvandır. Əlbəttə ki, ənənəvi tətbiq təhlükəsizliyi hələ də vacibdir, lakin süni intellekt sistemləri qeyri-adi hücum səthləri əlavə edir: sürətli inyeksiya, dolayı sürətli manipulyasiya, təhlükəli alət istifadəsi, kontekst vasitəsilə məlumatların süzülməsi və avtomatlaşdırılmış iş axınları vasitəsilə modelin sui-istifadəsi. LLM Tətbiqləri üçün OWASP Top 10 Süni intellekt və kibertəhlükəsizlik üzrə NCSC
Tərtibatçılar yalnız interfeysin deyil, bütün sistemin təhlükəsizliyinə cavabdehdirlər. NCSC təhlükəsizlik süni intellekt qaydaları
Burada əsas məsuliyyətlərə aşağıdakılar daxildir:
-
Etibarsız girişi dezinfeksiya etmək OWASP LLM Tətbiqləri üçün Top 10
-
modelin hansı alətləri LLM Tətbiqləri üçün OWASP Top 10
-
fayl və şəbəkə girişinin məhdudlaşdırılması NCSC təhlükəsiz süni intellekt qaydaları
-
icazələrin aydın şəkildə ayrılması NCSC təhlükəsiz süni intellekt qaydaları
-
sui-istifadə nümunələrinin monitorinqi NCSC təhlükəsiz süni intellekt qaydaları
-
Qiymət məhdudlaşdıran bahalı və ya riskli hərəkətlər OWASP LLM Tətbiqləri üçün Top 10
-
Rəqib tələblərini sınaqdan keçirmək üçün OWASP-ın LLM Tətbiqləri üzrə Top 10 proqramı
-
OECD Süni İntellekt Prinsipləri ilə ziddiyyət təşkil etdikdə təhlükəsiz ehtiyatların yaradılması
Narahatedici bir həqiqət odur ki, istifadəçilər - və hücum edənlər - tərtibatçıların gözləmədiyi şeyləri mütləq sınayacaqlar. Bəziləri maraqdan, bəziləri kin-küdurətdən, bəziləri isə gecə saat 2-də səhv bir şeyə kliklədikləri üçün. Bu, baş verir.
Generativ süni intellekt üçün təhlükəsizlik divar tikməkdən daha çox bəzən ifadələrlə aldadılan çox danışan bir qapıçını idarə etməyə bənzəyir.
Şəffaflıq və istifadəçi razılığı dəbdəbəli UX-dən daha vacibdir 🗣️
İstifadəçilər süni intellektlə qarşılıqlı əlaqədə olduqda bunu bilməlidirlər. OECD süni intellekt prinsiplərinin süni intellekt tərəfindən yaradılan məzmunun işarələnməsi və etiketlənməsi üzrə təcrübə kodeksi
Qeyri-müəyyən şəkildə deyil. Terminlərlə gizli qalmayıb. Aydındır ki.
Generativ süni intellektdən istifadə edən tərtibatçıların məsuliyyətinin əsas hissəsi istifadəçilərin aşağıdakıları başa düşməsini təmin etməkdir:
-
Süni intellekt istifadə edildikdə OECD Süni intellekt prinsipləri
-
Süni intellekt nə edə bilər və nə edə bilməz? OECD Süni intellekt prinsipləri
-
Nəticələrin insanlar tərəfindən nəzərdən keçirilib-keçirilməməsi OECD Süni İntellekt Prinsipləri
-
Məlumatlarının necə işlənməsi ICO-nun generativ süni intellekt üçün səkkiz sualı
-
NIST AI RMF-də hansı səviyyədə özünəinam olmalıdırlar
-
Problemləri necə bildirməli və ya qərarlara necə apelyasiya etməli OECD Süni İntellekt Prinsipləri NIST Süni İntellekt RMF
Şəffaflıq istifadəçiləri qorxutmaqla bağlı deyil, onlara hörmətlə yanaşmaqla bağlıdır.
Yaxşı şəffaflıq aşağıdakıları əhatə edə bilər:
-
məzmunun işarələnməsi və etiketlənməsi ilə bağlı Təcrübə Məcəlləsi kimi etiketlər
-
sadə dildə izahatlar OECD süni intellekt prinsipləri
-
müvafiq yerlərdə görünən redaktə tarixçələri
-
Süni intellekt xüsusiyyətlərini söndürmək üçün seçimlər
-
Lazım olduqda insan səviyyəsinə yüksəlmə OECD Süni İntellekt Prinsipləri
-
Yüksək riskli tapşırıqlar üçün qısa xəbərdarlıqlar Avropa Komissiyası Süni İntellekt Qanununa ümumi baxış
Bir çox məhsul komandası dürüstlüyün xüsusiyyəti daha az sehrli hiss etdirəcəyindən narahatdır. Bəlkə də. Amma yalançı əminlik daha pisdir. Riski gizlədən hamar interfeys əsasən cilalanmış qarışıqlıqdır.
Tərtibatçılar məsuliyyət daşıyırlar - hətta model "qərar verdikdə" belə 👀
Bu hissə çox vacibdir. Məsuliyyət model satıcısına, model kartına, sorğu şablonuna və ya maşın öyrənməsinin sirli atmosferinə həvalə edilə bilməz. OECD Süni İntellekt Prinsipləri NIST Süni İntellekt RMF
Tərtibatçılar hələ də məsuliyyət daşıyırlar. OECD süni intellekt prinsipləri
Bu o deməkdir ki, komandadakı kimsə sahib olmalıdır:
-
model seçimi NIST AI RMF
-
sınaq standartları NIST GenAI Profili
-
buraxılış meyarları NIST GenAI Profili
-
Hadisələrə cavab NCSC təhlükəsiz süni intellekt qaydaları
-
istifadəçi şikayətlərinin idarə olunması NIST AI RMF
-
geri qaytarma prosedurları OECD süni intellekt prinsipləri
-
dəyişikliklərin izlənməsi OECD süni intellekt prinsipləri
-
OECD süni intellekt prinsiplərinin sənədləşdirilməsi
Bu kimi suallara aydın cavablar olmalıdır:
-
Yerləşdirməni kim təsdiqləyir? NIST GenAI Profili
-
Zərərli çıxış hadisələrini kim nəzərdən keçirir? NIST GenAI Profili
-
Xüsusiyyəti kim deaktiv edə bilər? OECD Süni İntellekt Prinsipləri
-
Reqressiyaları kim izləyir? NIST AI RMF
-
Bir şey sıradan çıxdıqda istifadəçilərlə kim əlaqə saxlayır? OECD süni intellekt prinsipləri
Mülkiyyət olmadan məsuliyyət duman halına gəlir. Hər kəs başqasının bu işlə məşğul olduğunu düşünür... və sonra heç kim məşğul olmur.
Əslində, bu model süni intellektdən daha qədimdir. Süni intellekt onu daha təhlükəli edir.
Məsuliyyətli tərtibatçılar mükəmməllik üçün deyil, düzəliş üçün inşa edirlər 🔄
Bütün bunlarda kiçik bir dönüş budur: məsuliyyətli süni intellekt inkişafı sistemin mükəmməl olacağını iddia etmək deyil. Söhbət onun hansısa şəkildə uğursuz olacağını güman etmək və bu reallıq ətrafında dizayn etməkdən gedir. NIST süni intellekt RMF
Bu o deməkdir ki, aşağıdakı məhsullar istehsal olunur:
-
audit edilə bilən OECD süni intellekt prinsipləri
-
qərarlar və nəticələr daha sonra nəzərdən keçirilə bilər
-
-
kəsilə bilən OECD süni intellekt prinsipləri
-
İnsanlar pis davranışları dayandıra və ya ləğv edə bilərlər
-
-
bərpa edilə bilən OECD süni intellekt prinsipləri
-
süni intellekt çıxışı səhv olduqda ehtiyat nüsxəsi olur
-
-
monitorinq edilə bilən NCSC təhlükəsiz süni intellekt qaydaları NIST süni intellekt RMF
-
Komandalar fəlakətə çevrilməzdən əvvəl nümunələri müəyyən edə bilərlər
-
-
təkmilləşdirilə bilən NIST GenAI Profili
-
geribildirim döngələri mövcuddur və kimsə onları oxuyur
-
Yetkinlik belə görünür. Parlaq demolar deyil. Nəfəs kəsən marketinq mətni deyil. Maşının sehrbaz olmadığını etiraf etmək üçün kifayət qədər təvazökarlıq, təhlükəsizlik qaydaları, hesabatlılıq və mühafizə sistemləri. NCSC təhlükəsiz süni intellekt qaydaları OECD süni intellekt prinsipləri
Çünki deyil. Bu, bir vasitədir. Bəli, güclü bir vasitədir. Amma yenə də bir vasitədir.
Generativ süni intellektdən istifadə edən tərtibatçıların məsuliyyəti haqqında yekun düşüncə 🌍
Generativ Süni İntellektdən istifadə edən Tərtibatçıların məsuliyyəti nədir ?
Bu, diqqətlə qurmaqdır. Sistemin harada kömək etdiyini və harada zərər verdiyini soruşmaqdır. Məxfiliyi qorumaqdır. Qərəzliliyi yoxlamaqdır. Çıxışları yoxlamaqdır. İş axınını təmin etməkdir. İstifadəçilərlə şəffaf olmaqdır. İnsanları mənalı nəzarətdə saxlamaqdır. İşlər səhv gedəndə məsuliyyətli qalmaqdır. NIST AI RMF OECD AI Prinsipləri
Bu, ağır səslənə bilər - və elədir. Amma bu, həm də düşünülmüş inkişafı ehtiyatsız avtomatlaşdırmadan fərqləndirən amildir.
Generativ süni intellektdən istifadə edən ən yaxşı tərtibatçılar modelin ən çox fənd işlətməsini təmin edənlər deyil. Onlar bu fəndlərin nəticələrini başa düşən və buna uyğun olaraq dizayn edənlərdir. Onlar sürətin vacib olduğunu bilirlər, amma etibar əsl məhsuldur. Xüsusilə də, bu köhnə fikir hələ də qüvvədədir. NIST süni intellekt RMF
Sonda məsuliyyət innovasiyaya maneə deyil. Məhz bu, innovasiyanın cilalanmış interfeys və özünəinam problemi ilə bahalı, qarışıq bir yayılmaya çevrilməsinin qarşısını alır 😬✨
Və bəlkə də bu, onun ən sadə versiyasıdır.
Cəsarətlə qurun, əlbəttə - amma təsirlənə biləcək insanlar kimi qurun, çünki onlar təsirlənirlər. OECD süni intellekt prinsipləri
Tez-tez verilən suallar
Praktikada generativ süni intellektdən istifadə edən tərtibatçıların məsuliyyəti nədir?
Generativ süni intellektdən istifadə edən tərtibatçıların məsuliyyəti funksiyaların tez çatdırılmasından daha genişdir. Buraya düzgün istifadə halının seçilməsi, nəticələr sınaqdan keçirilməsi, məxfiliyin qorunması, zərərli davranışların azaldılması və sistemin istifadəçilər üçün başa düşülən hala gətirilməsi daxildir. Praktikada, tərtibatçılar alətin necə dizayn edildiyinə, izlənildiyinə, düzəldildiyinə və sıradan çıxdıqda idarə olunduğuna görə məsuliyyət daşıyırlar.
Niyə generativ süni intellekt normal proqram təminatından daha çox tərtibatçı məsuliyyətinə ehtiyac duyur?
Ənənəvi səhvlər çox vaxt göz qabağındadır, lakin generativ süni intellekt uğursuzluqları cilalanmış səslənə bilər, eyni zamanda səhv, qərəzli və ya riskli ola bilər. Bu, problemləri aşkar etməyi çətinləşdirir və istifadəçilərin səhvən etibar etmələrini asanlaşdırır. Tərtibatçılar ehtimal sistemləri ilə işləyirlər, buna görə də məsuliyyət qeyri-müəyyənliyin idarə olunmasını, zərərin məhdudlaşdırılmasını və buraxılışdan əvvəl gözlənilməz nəticələrə hazırlığı əhatə edir.
Geliştiricilər generativ süni intellektdən nə vaxt istifadə edilməməli olduğunu necə bilirlər?
Başlanğıc nöqtəsi, tapşırığın açıq olub-olmadığını və ya qaydalar, axtarış və ya standart proqram təminatı məntiqi ilə daha yaxşı idarə olunduğunu soruşmaqdır. Tərtibatçılar həmçinin səhv cavabın nə qədər zərər verə biləcəyini və insanın nəticələri real olaraq nəzərdən keçirə biləcəyini də nəzərə almalıdırlar. Məsuliyyətli istifadə bəzən generativ süni intellektdən ümumiyyətlə istifadə etməmək qərarı vermək deməkdir.
Tərtibatçılar generativ süni intellekt sistemlərində halüsinasiyaları və səhv cavabları necə azalda bilərlər?
Dəqiqlik fərziyyə əsasında deyil, dizayn edilməlidir. Bir çox boru kəmərlərində bu, çıxışları etibarlı mənbələrə əsaslandırmaq, yaradılan mətni təsdiqlənmiş faktlardan ayırmaq və daha yüksək riskli tapşırıqlar üçün icmal iş axınlarından istifadə etmək deməkdir. Tərtibatçılar, xüsusən də kodlaşdırma, dəstək, maliyyə, təhsil və səhiyyə kimi sahələrdə sistemi çaşdırmaq və ya yanıltmaq üçün nəzərdə tutulmuş sorğuları da sınaqdan keçirməlidirlər.
Məxfilik və həssas məlumatlar üçün generativ süni intellektdən istifadə edən tərtibatçıların məsuliyyəti nədir?
Generativ süni intellektdən istifadə edən tərtibatçıların məsuliyyəti modelə daxil olan məlumatların minimuma endirilməsini və sorğuların, qeydlərin və çıxışların həssas kimi qəbul edilməsini əhatə edir. Tərtibatçılar mümkün olduqda identifikatorları silməli, saxlanmanı məhdudlaşdırmalı, girişi idarə etməli və satıcı parametrlərini diqqətlə nəzərdən keçirməlidirlər. İstifadəçilər həmçinin riskləri sonradan aşkar etmək əvəzinə, məlumatlarının necə idarə olunduğunu başa düşə bilməlidirlər.
Tərtibatçılar generativ süni intellekt çıxışlarında qərəzlilik və ədaləti necə idarə etməlidirlər?
Qərəzli iş fərziyyələr deyil, aktiv qiymətləndirmə tələb edir. Praktik yanaşma, müxtəlif demoqrafik qruplar, dillər və kontekstlər üzrə sorğuları sınaqdan keçirmək, sonra stereotiplər, istisnalar və ya qeyri-bərabər uğursuzluq nümunələri üçün nəticələri nəzərdən keçirməkdir. Tərtibatçılar həmçinin istifadəçilər və ya komandalar üçün zərərli davranışları bildirmək üçün yollar yaratmalıdırlar, çünki sistem ümumilikdə güclü görünə bilər və eyni zamanda müəyyən qrupları ardıcıl olaraq uğursuzluğa düçar edə bilər.
Geliştiricilər generativ süni intellektlə bağlı hansı təhlükəsizlik risklərini nəzərə almalıdırlar?
Generativ süni intellekt, təcili inyeksiya, təhlükəli alət istifadəsi, kontekst vasitəsilə məlumatların sızması və avtomatlaşdırılmış hərəkətlərdən sui-istifadə daxil olmaqla yeni hücum səthlərini təqdim edir. Tərtibatçılar etibarsız girişi dezinfeksiya etməli, alət icazələrini məhdudlaşdırmalı, fayl və şəbəkə girişini məhdudlaşdırmalı və sui-istifadə nümunələrini izləməlidirlər. Təhlükəsizlik yalnız interfeyslə bağlı deyil; o, model ətrafındakı bütün iş axınına aiddir.
Generativ süni intellektlə tikinti apararkən şəffaflıq nə üçün vacibdir?
İstifadəçilər süni intellektlə nə vaxt məşğul olduqlarını, nə edə biləcəyini və məhdudiyyətlərinin harada olduğunu aydın şəkildə bilməlidirlər. Yaxşı şəffaflığa süni intellekt tərəfindən yaradılan və ya süni intellekt tərəfindən dəstəklənən kimi etiketlər, sadə izahatlar və insan dəstəyinə aparan aydın yollar daxil ola bilər. Bu cür səmimiyyət məhsulu zəiflətmir; istifadəçilərə etimadı kalibrləməyə və daha yaxşı qərarlar qəbul etməyə kömək edir.
Generativ süni intellekt xüsusiyyəti zərər verdikdə və ya səhv bir şey etdikdə kim məsuliyyət daşıyır?
Model cavabı hazırlasa belə, tərtibatçılar və məhsul qrupları hələ də nəticəyə sahibdirlər. Bu o deməkdir ki, yerləşdirmənin təsdiqlənməsi, insidentlərin idarə olunması, geri qaytarılma, monitorinq və istifadəçi ilə ünsiyyət üçün aydın məsuliyyət olmalıdır. "Model qərar verdi" kifayət deyil, çünki məsuliyyət sistemi dizayn edən və işə salan insanlarda qalmalıdır.
Məsuliyyətli generativ süni intellekt inkişafı işə salındıqdan sonra necə görünür?
Məsuliyyətli inkişaf buraxılışdan sonra monitorinq, rəy, nəzərdən keçirmə və düzəliş yolu ilə davam edir. Güclü sistemlər audit edilə bilən, kəsilə bilən, bərpa edilə bilən və süni intellekt sıradan çıxdıqda ehtiyat yolları ilə dizayn edilmişdir. Məqsəd mükəmməllik deyil; real dünya problemləri ortaya çıxdıqca təhlükəsiz şəkildə yoxlanıla, təkmilləşdirilə və tənzimlənə bilən bir şey yaratmaqdır.
İstinadlar
-
Milli Standartlar və Texnologiya İnstitutu (NIST) - NIST GenAI Profili - nvlpubs.nist.gov
-
OWASP - LLM Tətbiqləri üçün OWASP-ın Ən Yaxşı 10-luğu - owasp.org
-
İnformasiya Komissarının Ofisi (ICO) - ICO-nun generativ süni intellekt üçün səkkiz sualı - ico.org.uk