Ілюстрацыйная выява. Фота: veectezy
З новай палітыкі правілаў карыстання нейрасеткай ChatGPT цалкам знік пункт пра поўную забарону выкарыстання ў вайсковых мэтах. Гэта заўважыла выданне Business Insider, якое адразу ж пасрабавала атрымаць каментар ад кампаніі OpenAI, распрацоўшчыка ChatGPT.
Зніклы пункт быў такім: «Забараняецца выкарыстоўваць мадэль у дзейнасці, якая нясе высокую рызыку прычынення фізічнай шкоды, уключаючы:
- распрацоўку зброі;
- службу ва Узброеных сілах і вядзенне баявых дзеянняў;
- кіраванне або эксплуатацыю крытычна важнай інфраструктуры ў галіне энергетыкі, транспарту і водазабеспячэння;
- стварэнне кантэнту, які прапагандуе, заахвочвае або паказвае акты членашкодніцтва, такія як самагубства, парэзы і разлад харчовых паводзінаў».
У OpenAI адказалі Business Insider, што ў новых правілах застаюцца пункты пра «забарону прычыняць шкоду іншаму і распрацоўваць зброю», аднак, па словах прадстаўніка кампаніі, «існуюць прыклады пытанняў нацыянальнай бяспекі, рашэнне якіх адпавядаюць місіі OpenAI, што збольшага і прывяло да зменаў у правілах карыстання ChatGPT».
Роля нейрасеткі абмяжуецца, напрыклад, «стварэннем новых інструментаў кібербяспекі для абароны праграмнага забеспячэння, ад якога залежаць крытычна важная інфраструктура і прамысловасць», адзначылі ў OpenAI.
У той жа час эксперты ў сферы штучнага інтэлетку заявілі Business Insider, што новыя фармулёўкі ў спісе правілаў карыстання нейрасеткай занадта абагульненыя і расплывістыя, што дазволіць абыходзіць забарону нават на стварэнне зброі, калі гэта адпавядае «законным інтарэсам» дзяржавы.
Чытайце таксама:
«Нясе пагрозу для ўсяго чалавецтва». Высветліліся падрабязнасці гучнага звальнення Альтмана з OpenAI