Dit project onderzoekt bias in AI met behulp van IBM’s AI Fairness 360 (AIF360).
We gebruiken de bekende Adult dataset (inkomensdata) en analyseren de fairness tussen mannen en vrouwen.
- ✅ Dataset laden via OpenML
- ✅ Bias detecteren met Disparate Impact
- ✅ Bias mitigeren met Reweighing
- ✅ Interpretatie in gewone taal
✅ Dataset geladen: 48842 samples
Disparate Impact vóór mitigatie: 0.63
Disparate Impact ná mitigatie: 0.98
👉 Interpretatie: de dataset discrimineerde duidelijk tegen vrouwen (0.63 < 0.8).
Na Reweighing is de bias sterk verminderd: de waarde schuift naar ~1.0 → veel eerlijker verdeeld.
AIF360/
├── notebooks/
│ └── AIF360_Fairness_Check_With_Reweighing_And_Interpretation.ipynb
├── docs/
│ ├── Python_Gegevenstypen_CheatSheet.pdf
│ └── AIF360_Cheat_Sheet_Mac.pdf
├── requirements.txt
├── README.md
└── .venv/
git clone https://github.com/BrinkmannB/AIF360.git
cd AIF360
python3 -m venv .venv
source .venv/bin/activate
pip install -r requirements.txt
jupyter notebook
Open het notebook in notebooks/
en klik op Run All.
👨💻 Auteur: Bas Brinkmann
AI Ethiek Consultant in opleiding | Extern Vertrouwenspersoon