5 °

max 7 ° / min -1 °

Srijeda

19.02.

7° / -1°

Četvrtak

20.02.

8° / -0°

Petak

21.02.

8° / 0°

Subota

22.02.

8° / 0°

Nedjelja

23.02.

10° / 3°

Ponedjeljak

24.02.

11° / 4°

Utorak

25.02.

12° / 5°

Podijeli vijest sa nama.

Dodaj do 3 fotografije ili videa.

Maksimalna veličina jednog fajla je 30MB

minimum 15 karaktera

This site is protected by reCAPTCHA and the Google. Privacy Policy and Terms of Service apply.
OpenAI predstavio nove obrasce ponašanja svojih AI modela

Izvor: Pixabay

Tehnologija

Comments 0

OpenAI predstavio nove obrasce ponašanja svojih AI modela

Izvor: The Verge, NY Times

Autor: Antena M

  • Viber

Organizacija OpenAI objavila je juče značajno proširenu verziju svoje Specifikacije modela, nudeći opsežan dokument od 63 stranice koji izlaže principе kompanije za ponašanje AI modela. Ova ažurirana specifikacija, koja je od sada slobodno dostupna svima za korišćenje ili izmjene, predstavlja veliki korak ka poboljšanju transparentnosti i prilagodljivosti u razvoju vještačke inteligencije.

Nove smjernice, koje su povećale dužinu dokumenta sa približno 10 stranica u prethodnoj verziji, pokrivaju širok spektar tema, od upravljanja kontroverznim diskusijama do postavljanja granica korisničkog prilagođavanja. Ponašanje modela zasniva se na trima ključnim principima: prilagodljivosti, transparentnosti i intelektualne slobode, omogućavajući korisnicima da istražuju i diskutuju ideje bez proizvoljnih ograničenja.

Objava OpenAI-a poklopila se sa najavom da će njihov sljedeći veliki model, GPT-4.5 (kodnog naziva Orion), uskoro biti objavljen. Ažurirana specifikacija odražava godinu dana povratnih informacija, rješavajući ključna pitanja etike vještačke inteligencije i prošle kontroverze, uključujući debate o odgovorima vještačke inteligencije na osjetljive teme.

Na primjer, OpenAI je ponovo razmotrio svoje postupanje u vezi sa složenim etičkim dilemama, kao što je hipotetički scenario u kojem bi došlo do pogrešnog označavanja roda kako bi se spriječila nuklearna apokalipsa. Nakon kritika od strane tehnoloških figura poput Ilona Maska, OpenAI je prilagodio svoj stav, jasno naglašavajući da model treba da daje prioritet minimiziranju štete u takvim ekstremnim situacijama.

Joan Jang, članica OpenAI tima za ponašanje modela, naglasila je da, dok su neki sigurnosni standardi nešto o čemu nema rasprave, specifikacija omogućava značajno prilagođavanje odgovora AI-a kako bi se zadovoljile različite korisničke potrebe.

Prošireni dokument uvodi suptilniji pristup temama poput prevencije samopovređivanja, koja je postala javna tema nakon tragičnog incidenta sa chatbotom na Character.AI. Specifikacija takođe zabranjuje AI-u da reprodukuje sadržaj zaštićen autorskim pravima ili zaobiđe platne zidove, što je postalo sporno u okviru tekućih pravnih sporova, poput tužbe New York Timesa protiv OpenAI.

Ključna promjena u ažuriranoj specifikaciji je pristupanje kontroverznim pitanjima. Dokument sada podstiče AI modele da učestvuju u promišljenim diskusijama sa korisnicima, dok istovremeno održavaju jasne moralne stavove o temama kao što su dezinformacije i štetan sadržaj. Na primjer, kada se postavi pitanje o povećanju poreza za bogate, model je upućen da pruži analizu baziranu na naučnim stavovima umjesto da izbjegava diskusiju uopšte.

Što se tiče sadržaja za odrasle, specifikacija uvodi „mod za odrasle“ za korisnike, funkciju koju je mnogo članova zajednice tražilo. Ovaj mod bi omogućio određeni sadržaj za odrasle u odgovarajućim kontekstima, uz stroge mjere zaštite od štetnog materijala poput osvetničke pornografije i deepfakea. Ovo predstavlja značajnu promjenu u odnosu na prethodne opšte zabrane eksplicitnog sadržaja.

Specifikacija modela zagovara odgovoran pristup osjetljivom sadržaju. Model treba da bude sposoban da transformiše sadržaj, poput prevođenja tema vezanih za droge između jezika, umjesto da ih jednostavno odbacuje. Takođe, iznosi značaj empatije, naglašavajući da AI treba da pokaže razumijevanje bez pretvaranja da ima emocije.

Specifikacija takođe rješava problem poznat kao „AI servilnost“, gdje AI modeli često pretjerano pristaju na korisničke stavove. Prema novim smjernicama, modeli se podstiču da pružaju iskreni, konstruktivni feedback, umjesto da jednostavno nude pohvale. Ako korisnik iznese netačnu tvrdnju, model treba da je ljubazno ispravi.

Uveden je i jasan „lanac komande“, koji daje prioritet pravilima OpenAI platforme, zatim smjernicama programera, a zatim korisničkim preferencijama. Ova hijerarhija pomaže da se razjasni koji aspekti ponašanja AI su fiksni, a koji mogu biti modifikovani od strane programera ili korisnika.

Objava nove Specifikacije modela poklopila se sa tekućim debatama u industriji o sigurnosti AI i etičkim razmatranjima. OpenAI je dokument učinio dostupnim pod Creative Commons Zero (CC0) licencom, omogućavajući drugim AI kompanijama i istraživačima da slobodno usvoje ili modifikuju smjernice.

Iako specifikacija neće odmah promijeniti ponašanje OpenAI-ovih modela, kompanija ovu objavu vidi kao korak ka osiguravanju da njeni modeli dosljedno prate ove principe. OpenAI aktivno traži povratne informacije od javnosti kako bi usavršio smjernice, sa ciljem da pokrene širu diskusiju o ponašanju i etici AI.

Komentari (0)

POŠALJI KOMENTAR