AI-transparantie
Versie: 1.0
Inwerkingtreding: 1 september 2025
Inora is een AI-assistent die zorgmedewerkers helpt met:
kennis raadplegen (richtlijnen/terminologie), concept-rapportages opstellen, vertaalsuggesties, en workflow-ondersteuning (bijv. checklists). Inora neemt geen beslissingen en vervangt geen professionele beoordeling.
1) Je communiceert met een AI-systeem.
Resultaten kunnen onjuist, onvolledig of verouderd zijn. Altijd kritisch beoordelen en menselijke eindverantwoordelijkheidhouden. (Zie §5 en §7.)
2) Wat Inora niet is en niet doet
Geen medisch hulpmiddel (MDR) en geen medisch advies. Beslissingen in de zorg worden altijd door bevoegde professionals genomen.
Geen automatische besluitvorming met rechtsgevolgen.
Geen diagnostiek op basis van patiëntgegevens.
3) Invoerregels (geen patiëntgegevens)
Gebruikers worden expliciet geïnstrueerd géén patiënt-/cliëntgegevens in te voeren.
Mocht dit toch per abuis gebeuren, dan passen wij redactie/encryptie-maatregelen toe om dergelijke inhoud te blokkeren voor doorgifte aan model-API’s en zo snel mogelijk te verwijderen uit onze verwerkingspijplijn.
Zie ook onze Privacyverklaring (/privacy) en AUP/Gebruiksrichtlijnen (/acceptable-use).
4) Bronnen, modellen en hoe antwoorden tot stand komen
Antwoorden worden gegenereerd door generatieve AI-modellen en kunnen, waar ingericht, worden ondersteund met gecontroleerde kenniscollecties (RAG) en prompt-templates.
Wij werken met geselecteerde (sub)verwerkers voor hosting en AI-modellering.
Waar de leverancier dit toelaat, configureren wij dat prompts en outputs niet worden gebruikt voor het trainen van algemene modellen.
5) Menselijk toezicht en juist gebruik
Inora is bedoeld als ondersteuning voor professionele gebruikers.
Gebruik Inora nooit als enige bron voor zorgbeslissingen.
Controleer feiten, pas klinische context toe en raadpleeg bronrichtlijnen of collega’s bij twijfel.
6) Transparantie-signalen in de interface
Waar mogelijk labelen we AI-output (bijv. met “AI”/“Gegenereerd”) en bieden we context (timestamp, samenvatting van gebruikte bronnen of instructies). Doel: duidelijk maken wat AI genereert en wat redactioneel is. Dit ondersteunt de AI-Act-eis dat eindgebruikers begrijpen dat zij met AI interacteren.
7) Beperkingen en bekende risico’s
Onnauwkeurigheid & hallucinaties: feitelijke fouten of verzonnen referenties zijn mogelijk.
Bias: modellen kunnen vooroordelen bevatten; beoordeel kritisch.
Veroudering: medische of organisatorische informatie kan na verloop van tijd wijzigen.
Onvolledigheid: AI ziet niet alles; combineer met andere bronnen.
8) Logging, bewaartermijnen en privacy
We registreren minimale gebruiks- en foutmeldingsdata die nodig zijn voor beveiliging en stabiliteit.
Bewaartermijnen: standaard maximaal 90 dagen voor operationele logs, tenzij langer noodzakelijk voor incidentafhandeling of wettelijke plichten.
Persoonsgegevens die we nodig hebben voor accounts zijn beperkt tot naam en e-mail (zie /privacy voor details, rechten en contact).
9) Veiligheid en kwaliteit
Technische en organisatorische maatregelen in lijn met ISO 27001/NEN 7510-principes (toegangsbeheer, encryptie in transit/at rest, monitoring).
Wijzigingen in (sub)verwerkers of modelinstellingen worden waar relevant aangekondigd op /subprocessors of via je organisatie-contact.
10) Feedback, fouten en meldingen
Zie /security en /.well-known/security.txt voor responsible-disclosure richtlijnen; hier vind je ook het security-contact. (security.txt is een IETF-standaard voor het publiceren van responsible-disclosure-gegevens.)
Voor inhoudelijke feedback of vragen: support@inora.ai. Voor privacy: privacy@inora.ai.
11) Wijzigingen
We kunnen deze notitie bijwerken. Bij materiële wijzigingen publiceren we een melding op de website en/of informeren we organisatie-admins. De versiedatum bovenaan is leidend.