Polisi Deallusrwydd Artiffisial Cynhyrchiol – beth sydd angen i staff ei wybod

11 awr yn ôl

Mae Cyngor Sir Caerfyrddin wedi cyflwyno Polisi Deallusrwydd Artiffisial Cynhyrchiol newydd i helpu pawb i ddefnyddio offer deallusrwydd artiffisial yn ddiogel, yn foesegol, ac yn unol â'n cyfrifoldebau cyfreithiol a sefydliadol.
Mae'r polisi yn berthnasol i bob gweithiwr, gweithiwr asiantaeth, gwirfoddolwr, aelod etholedig a chontractwr allanol sy'n defnyddio systemau digidol y cyngor.

Pam mae gennym bolisi Deallusrwydd Artiffisial Cynhyrchiol:

Mae llawer ohonon ni bellach yn defnyddio offer deallusrwydd artiffisial fel ChatGPT, Microsoft Copilot, Claude, Gemini, Perplexity AI ac eraill i gefnogi tasgau bob dydd fel:

  • Ysgrifennu neu fireinio negeseuon e-bost
  • Crynhoi dogfennau hir
  • Creu syniadau neu ddrafftio cynnwys
  • Ymchwilio i bynciau

Gall yr offer hyn fod yn hynod o ddefnyddiol, ond maen nhw hefyd yn peri risgiau pwysig, gan gynnwys:

  • Gwybodaeth anghywir ("rhithweledigaethau”)
  • Rhagfarn neu ganlyniadau camarweiniol
  • Materion diogelu data
  • Risgiau diogelwch os caiff gwybodaeth gyfrinachol ei bwydo

Mae'r polisi newydd wedi'i greu i sicrhau bod offer AI yn cael eu defnyddio'n ddiogel, yn gyfrifol ac er budd y sefydliad a'r staff.

Mae'n sicrhau bod ein defnydd o ddeallusrwydd artiffisial bob amser:

  • Yn foesegol
  • Yn ddiogel
  • Yn cydymffurfio â'r Rheoliad Cyffredinol ar Ddiogelu Data a Deddf Diogelu Data 2018
  • Yn cyd-fynd â'n safonau llywodraethu gwybodaeth

Pa offer deallusrwydd artiffisial ddylwn i eu defnyddio?

Lle bo'n bosibl, dylai staff ddefnyddio Microsoft Copilot Chat yn Teams neu Microsoft Edge yn hytrach nag offer deallusrwydd artiffisial cynhyrchiol cyhoeddus fel:

·       ChatGPT (OpenAI)

·       Claude (Anthropic)

·       Gemini (Google)

·       Perplexity AI

·       Grok AI

·       Deep AI

Mae Copilot Chat yn gweithredu o fewn amgylchedd diogel Microsoft 365 y Cyngor, sy'n golygu bod promptiau a chanlyniadau yn cael eu trin yn unol â'n mesurau rheoli llywodraethu gwybodaeth, diogelwch a diogelu data.

Mae hyn yn golygu ei fod yn opsiwn mwy diogel ar gyfer gwaith o ddydd i ddydd fel drafftio cynnwys, crynhoi gwybodaeth neu fireinio syniadau.

Wedi dweud hynny, nid yw'r Polisi Deallusrwydd Artiffisial Cynhyrchiol wedi'i fwriadu i gyfyngu ar arloesi neu atal y defnydd o offer deallusrwydd artiffisial ar-lein am ddim ehangach. Gall staff barhau i ddefnyddio offer cyhoeddus lle bo hynny'n briodol, ar yr amod nad ydyn nhw'n bwydo gwybodaeth bersonol, sensitif neu gyfrinachol, a'u bod yn arfer crebwyll dynol, ac yn dilyn yr egwyddorion a nodir yn y polisi.

Adnoddau dysgu deallusrwydd artiffisial ar gyfer yr holl staff:

I helpu staff i feithrin hyder mewn defnyddio technolegau datblygol, mae ein bathodyn Hanfodion Deallusrwydd Artiffisial newydd, sef cyfres o dri modiwl e-ddysgu deallusrwydd artiffisial, ar gael ar Thinqi nawr. Nod y modiwlau hyn yw darparu canllawiau clir ac ymarferol ar ddeallusrwydd artiffisial, yn ogystal â'ch helpu i archwilio sut mae deallusrwydd artiffisial yn gweithio, sut mae'n gallu cefnogi gwaith o ddydd i ddydd ar draws y sefydliad, a sut i ddefnyddio offer deallusrwydd artiffisial yn gyfrifol, yn ddiogel ac yn effeithiol.

Gan adeiladu ar hyn, bydd modiwl ychwanegol, Cyflwyniad i Copilot, yn cael ei lansio cyn bo hir. Bydd y cwrs hwn, ynghyd â chyfleoedd dysgu pellach, yn cryfhau sgiliau a hyder staff ymhellach gan helpu pawb i fanteisio'n llawn ar offer deallusrwydd artiffisial. 

Darllenwch y Polisi Deallusrwydd Artiffisial Cynhyrchiol newydd yma