Richtlijnen voor advocaten Gebruik Artificiële Intelligentie
Deze richtlijnen betreffen het gebruik van artificiële intelligentie in de beroepsuitoefening van de advocaat.
Algemeen
Het gebruik van AI is niet verboden, noch verplicht.
Het gebruik van de technologie behoort tot de eigen vrijheid en de eigen verantwoordelijkheid van de advocaat.
Competentieplicht en niveau van cliëntinformatie
De advocaat kent de basis van artificiële intelligentie en Large Language Models.
AI werkt door computers te leren patronen te herkennen in grote hoeveelheden data. AI-systemen gebruiken algoritmes en wiskundige modellen om taken uit te voeren die normaal menselijke intelligentie vereisen, zoals beslissingen nemen en problemen oplossen.
Large Language Models (LLMs) zijn een specifiek type AI dat zich richt op het begrijpen en genereren van menselijke taal. Ze werken als volgt:
- Training: LLMs worden getraind op enorme hoeveelheden tekst, vaak afkomstig van het internet;
- Patroonherkenning: Ze leren statistische relaties tussen woorden en zinnen;
- Tekstgeneratie: Op basis van deze patronen kunnen LLMs nieuwe teksten produceren en vragen beantwoorden;
- Verbetering: LLMs kunnen blijven leren naarmate ze meer data verwerken, waardoor ze steeds beter (lijken te) worden in het begrijpen en genereren van taal.
LLMs zijn in essentie zeer geavanceerde voorspellingsmachines die bepalen welk woord of welke zin het meest waarschijnlijk is in een bepaalde context.
De advocaat respecteert de beginselen van artikel 455 Ger.W. en artikel 1 van de Codex Deontologie voor Advocaten. (art.1.2 in de Franstalige Codex)
In het bijzonder ziet de advocaat bij het gebruik van AI toe op een behoorlijke beroepsuitoefening en oefent hij zijn beroep op deskundige wijze uit met eerbiediging van het beroepsgeheim, van de essentiële plichten van onafhankelijkheid en partijdigheid, en met het vermijden van belangenconflicten. Hij eerbiedigt de beginselen van waardigheid, rechtschapenheid en kiesheid.
De advocaat neemt de gebruiksvoorwaarden van de AI-tool die hij of zij wenst te gebruiken goed door.
Aandachtspunten zijn:
- Voorwaarden rond training, doorgifte en opslag;
- Voorwaarden rond verdere verwerkingen van de aangebrachte gegevens door het platform;
- Lokalisatie van de verwerkingen;
- Het open of gesloten karakter van het systeem;
- Aansprakelijkheidsvoorwaarden van het platform;
- Intellectuele eigendomsrechten en licentievoorwaarden.
De advocaat controleert het resultaat, met inbegrip van vermelde bronnen.
De advocaat controleert het bestaan van de in het resultaat aangehaalde wetgeving, rechtsleer en rechtspraak. De advocaat dient niet noodzakelijk elke door de AI-tool gemaakte redenering te kunnen toerekenen aan een welbepaalde bron, maar moet wel steeds kritisch zijn over de gebruikte argumentatie en het gegenereerde resultaat.
De advocaat is niet verplicht over zijn gebruik van AI te communiceren.
De advocaat is niet verplicht aan de cliënt mee te delen dat beroep wordt gedaan op AI, net zomin als hij wordt geacht te melden dat hij andere IT-toepassingen gebruikt.
Gegevensbescherming en Beroepsgeheim
De advocaat pseudonimiseert de persoonsgegevens.
De advocaat onthoudt zich van het invoeren van persoonsgegevens in prompts, input en/of andere documenten bij het gebruik van AI-tools.
In het geval de verwerking van persoonsgegevens essentieel is, is de advocaat transparant en vraagt hij toestemming aan de betrokken persoon. Soms is een andere rechtsgrond dan toestemming aanwezig.
Voorbeeld: het opnemen van een vergadering om een verslag te genereren. Daarvoor is de verwerking van stemmen en de identificatie van de deelnemers noodzakelijk.
De advocaat respecteert het beroepsgeheim.
De advocaat respecteert het beroepsgeheim. Hij voert nooit stukken of informatie die gedekt zijn door het beroepsgeheim of een vertrouwelijkheidsverplichting in bij het gebruik van een AI-tool. Een uitzondering op dit principe geldt enkel indien de advocaat absoluut zeker is dat hij of zij de AI-toepassing gebruikt in een gesloten omgeving met voldoende waarborgen (bv binnen de perimeter van het eigen kantoor zonder informatiedeling naar de buitenwereld toe).
Robots en aansprakelijkheid
De advocaat geeft toelichting bij zijn chatbot.
De advocaat mag chatbots ontwikkelen, maar gebruikers moeten begrijpen en dus ingelicht worden dat het om een geautomatiseerd AI-systeem gaat.
De advocaat blijft steeds eindverantwoordelijke voor de output van de AI die hij of zij gebruikt.
Alle aansprakelijkheidsprincipes blijven gelden.
Overzicht
Download alle richtlijnen