Skip to content

Fairness-check op de Adult-dataset met IBM AIF360: detectie (Disparate Impact) + mitigatie (Reweighing)

License

Notifications You must be signed in to change notification settings

BrinkmannB/AIF360

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

15 Commits
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

🔎 AIF360 Fairness Check Project

Python Jupyter IBM AIF360 GitHub last commit GitHub repo size


📌 Over dit project

Dit project onderzoekt bias in AI met behulp van IBM’s AI Fairness 360 (AIF360).
We gebruiken de bekende Adult dataset (inkomensdata) en analyseren de fairness tussen mannen en vrouwen.


⚙️ Functionaliteit

  • ✅ Dataset laden via OpenML
  • ✅ Bias detecteren met Disparate Impact
  • ✅ Bias mitigeren met Reweighing
  • ✅ Interpretatie in gewone taal

📊 Voorbeeld-output

✅ Dataset geladen: 48842 samples
Disparate Impact vóór mitigatie: 0.63
Disparate Impact ná mitigatie: 0.98

👉 Interpretatie: de dataset discrimineerde duidelijk tegen vrouwen (0.63 < 0.8).
Na Reweighing is de bias sterk verminderd: de waarde schuift naar ~1.0 → veel eerlijker verdeeld.


📂 Projectstructuur

AIF360/
├── notebooks/
│   └── AIF360_Fairness_Check_With_Reweighing_And_Interpretation.ipynb
├── docs/
│   ├── Python_Gegevenstypen_CheatSheet.pdf
│   └── AIF360_Cheat_Sheet_Mac.pdf
├── requirements.txt
├── README.md
└── .venv/

🚀 Installatie & gebruik

1. Repo clonen

git clone https://github.com/BrinkmannB/AIF360.git
cd AIF360

2. Virtuele omgeving maken

python3 -m venv .venv
source .venv/bin/activate

3. Dependencies installeren

pip install -r requirements.txt

4. Start Jupyter

jupyter notebook

Open het notebook in notebooks/ en klik op Run All.


📖 Meer weten?


👨‍💻 Auteur: Bas Brinkmann
AI Ethiek Consultant in opleiding | Extern Vertrouwenspersoon

About

Fairness-check op de Adult-dataset met IBM AIF360: detectie (Disparate Impact) + mitigatie (Reweighing)

Topics

Resources

License

Stars

Watchers

Forks

Packages

No packages published