AI-transparantie

Versie: 1.0

Inwerkingtreding: 1 september 2025

Inora is een AI-assistent die zorgmedewerkers helpt met:

kennis raadplegen (richtlijnen/terminologie), concept-rapportages opstellen, vertaalsuggesties, en workflow-ondersteuning (bijv. checklists). Inora neemt geen beslissingen en vervangt geen professionele beoordeling.

1) Je communiceert met een AI-systeem.

Resultaten kunnen onjuist, onvolledig of verouderd zijn. Altijd kritisch beoordelen en menselijke eindverantwoordelijkheidhouden. (Zie §5 en §7.)

2) Wat Inora niet is en niet doet

  • Geen medisch hulpmiddel (MDR) en geen medisch advies. Beslissingen in de zorg worden altijd door bevoegde professionals genomen.

  • Geen automatische besluitvorming met rechtsgevolgen.

  • Geen diagnostiek op basis van patiëntgegevens.

3) Invoerregels (geen patiëntgegevens)

  • Gebruikers worden expliciet geïnstrueerd géén patiënt-/cliëntgegevens in te voeren.

  • Mocht dit toch per abuis gebeuren, dan passen wij redactie/encryptie-maatregelen toe om dergelijke inhoud te blokkeren voor doorgifte aan model-API’s en zo snel mogelijk te verwijderen uit onze verwerkingspijplijn.

  • Zie ook onze Privacyverklaring (/privacy) en AUP/Gebruiksrichtlijnen (/acceptable-use).

4) Bronnen, modellen en hoe antwoorden tot stand komen

  • Antwoorden worden gegenereerd door generatieve AI-modellen en kunnen, waar ingericht, worden ondersteund met gecontroleerde kenniscollecties (RAG) en prompt-templates.

  • Wij werken met geselecteerde (sub)verwerkers voor hosting en AI-modellering.

  • Waar de leverancier dit toelaat, configureren wij dat prompts en outputs niet worden gebruikt voor het trainen van algemene modellen.

5) Menselijk toezicht en juist gebruik

  • Inora is bedoeld als ondersteuning voor professionele gebruikers.

  • Gebruik Inora nooit als enige bron voor zorgbeslissingen.

  • Controleer feiten, pas klinische context toe en raadpleeg bronrichtlijnen of collega’s bij twijfel.

6) Transparantie-signalen in de interface

Waar mogelijk labelen we AI-output (bijv. met “AI”/“Gegenereerd”) en bieden we context (timestamp, samenvatting van gebruikte bronnen of instructies). Doel: duidelijk maken wat AI genereert en wat redactioneel is. Dit ondersteunt de AI-Act-eis dat eindgebruikers begrijpen dat zij met AI interacteren. 

7) Beperkingen en bekende risico’s

  • Onnauwkeurigheid & hallucinaties: feitelijke fouten of verzonnen referenties zijn mogelijk.

  • Bias: modellen kunnen vooroordelen bevatten; beoordeel kritisch.

  • Veroudering: medische of organisatorische informatie kan na verloop van tijd wijzigen.

  • Onvolledigheid: AI ziet niet alles; combineer met andere bronnen.

8) Logging, bewaartermijnen en privacy

  • We registreren minimale gebruiks- en foutmeldingsdata die nodig zijn voor beveiliging en stabiliteit.

  • Bewaartermijnen: standaard maximaal 90 dagen voor operationele logs, tenzij langer noodzakelijk voor incidentafhandeling of wettelijke plichten.

  • Persoonsgegevens die we nodig hebben voor accounts zijn beperkt tot naam en e-mail (zie /privacy voor details, rechten en contact).

9) Veiligheid en kwaliteit

  • Technische en organisatorische maatregelen in lijn met ISO 27001/NEN 7510-principes (toegangsbeheer, encryptie in transit/at rest, monitoring).

  • Wijzigingen in (sub)verwerkers of modelinstellingen worden waar relevant aangekondigd op /subprocessors of via je organisatie-contact.

10) Feedback, fouten en meldingen

  • Zie /security en /.well-known/security.txt voor responsible-disclosure richtlijnen; hier vind je ook het security-contact. (security.txt is een IETF-standaard voor het publiceren van responsible-disclosure-gegevens.) 

  • Voor inhoudelijke feedback of vragen: support@inora.ai. Voor privacy: privacy@inora.ai.

11) Wijzigingen

We kunnen deze notitie bijwerken. Bij materiële wijzigingen publiceren we een melding op de website en/of informeren we organisatie-admins. De versiedatum bovenaan is leidend.