Polisi Deallusrwydd Artiffisial Cynhyrchiol – beth sydd angen i staff ei wybod
11 awr yn ôl
Mae Cyngor Sir Caerfyrddin wedi cyflwyno Polisi Deallusrwydd Artiffisial Cynhyrchiol newydd i helpu pawb i ddefnyddio offer deallusrwydd artiffisial yn ddiogel, yn foesegol, ac yn unol â'n cyfrifoldebau cyfreithiol a sefydliadol.
Mae'r polisi yn berthnasol i bob gweithiwr, gweithiwr asiantaeth, gwirfoddolwr, aelod etholedig a chontractwr allanol sy'n defnyddio systemau digidol y cyngor.
Pam mae gennym bolisi Deallusrwydd Artiffisial Cynhyrchiol:
Mae llawer ohonon ni bellach yn defnyddio offer deallusrwydd artiffisial fel ChatGPT, Microsoft Copilot, Claude, Gemini, Perplexity AI ac eraill i gefnogi tasgau bob dydd fel:
- Ysgrifennu neu fireinio negeseuon e-bost
- Crynhoi dogfennau hir
- Creu syniadau neu ddrafftio cynnwys
- Ymchwilio i bynciau
Gall yr offer hyn fod yn hynod o ddefnyddiol, ond maen nhw hefyd yn peri risgiau pwysig, gan gynnwys:
- Gwybodaeth anghywir ("rhithweledigaethau”)
- Rhagfarn neu ganlyniadau camarweiniol
- Materion diogelu data
- Risgiau diogelwch os caiff gwybodaeth gyfrinachol ei bwydo
Mae'r polisi newydd wedi'i greu i sicrhau bod offer AI yn cael eu defnyddio'n ddiogel, yn gyfrifol ac er budd y sefydliad a'r staff.
Mae'n sicrhau bod ein defnydd o ddeallusrwydd artiffisial bob amser:
- Yn foesegol
- Yn ddiogel
- Yn cydymffurfio â'r Rheoliad Cyffredinol ar Ddiogelu Data a Deddf Diogelu Data 2018
- Yn cyd-fynd â'n safonau llywodraethu gwybodaeth
Pa offer deallusrwydd artiffisial ddylwn i eu defnyddio?
Lle bo'n bosibl, dylai staff ddefnyddio Microsoft Copilot Chat yn Teams neu Microsoft Edge yn hytrach nag offer deallusrwydd artiffisial cynhyrchiol cyhoeddus fel:
· ChatGPT (OpenAI)
· Claude (Anthropic)
· Gemini (Google)
· Perplexity AI
· Grok AI
· Deep AI
Mae Copilot Chat yn gweithredu o fewn amgylchedd diogel Microsoft 365 y Cyngor, sy'n golygu bod promptiau a chanlyniadau yn cael eu trin yn unol â'n mesurau rheoli llywodraethu gwybodaeth, diogelwch a diogelu data.
Mae hyn yn golygu ei fod yn opsiwn mwy diogel ar gyfer gwaith o ddydd i ddydd fel drafftio cynnwys, crynhoi gwybodaeth neu fireinio syniadau.
Wedi dweud hynny, nid yw'r Polisi Deallusrwydd Artiffisial Cynhyrchiol wedi'i fwriadu i gyfyngu ar arloesi neu atal y defnydd o offer deallusrwydd artiffisial ar-lein am ddim ehangach. Gall staff barhau i ddefnyddio offer cyhoeddus lle bo hynny'n briodol, ar yr amod nad ydyn nhw'n bwydo gwybodaeth bersonol, sensitif neu gyfrinachol, a'u bod yn arfer crebwyll dynol, ac yn dilyn yr egwyddorion a nodir yn y polisi.
Adnoddau dysgu deallusrwydd artiffisial ar gyfer yr holl staff:
I helpu staff i feithrin hyder mewn defnyddio technolegau datblygol, mae ein bathodyn Hanfodion Deallusrwydd Artiffisial newydd, sef cyfres o dri modiwl e-ddysgu deallusrwydd artiffisial, ar gael ar Thinqi nawr. Nod y modiwlau hyn yw darparu canllawiau clir ac ymarferol ar ddeallusrwydd artiffisial, yn ogystal â'ch helpu i archwilio sut mae deallusrwydd artiffisial yn gweithio, sut mae'n gallu cefnogi gwaith o ddydd i ddydd ar draws y sefydliad, a sut i ddefnyddio offer deallusrwydd artiffisial yn gyfrifol, yn ddiogel ac yn effeithiol.
Gan adeiladu ar hyn, bydd modiwl ychwanegol, Cyflwyniad i Copilot, yn cael ei lansio cyn bo hir. Bydd y cwrs hwn, ynghyd â chyfleoedd dysgu pellach, yn cryfhau sgiliau a hyder staff ymhellach gan helpu pawb i fanteisio'n llawn ar offer deallusrwydd artiffisial.
