Ein leistungsfähiges Tool zum Scannen und Auflisten aller URLs einer Website.
- Scannt alle verfügbaren URLs einer eingegebenen Domain
- Benutzerfreundliche Weboberfläche
- Filtert automatisch domainexterne Links
- Echtzeit-Ergebnisanzeige
- Responsive Design
- Node.js
- Express.js
- Axios für HTTP-Anfragen
- Cheerio für HTML-Parsing
- Vanilla JavaScript (Frontend)
- Repository klonen:
git clone https://github.com/MRT-Media-GmbH/url-output.git
- In das Projektverzeichnis wechseln:
cd url-output
- Dependencies installieren:
npm install
- Server starten:
npm start
Der Server läuft standardmäßig auf Port 3000. Öffnen Sie http://localhost:3000 in Ihrem Browser.
- Geben Sie eine Domain in das Eingabefeld ein (z.B. "example.com")
- Klicken Sie auf "Scannen"
- Warten Sie, bis alle URLs geladen sind
- Die gefundenen URLs werden in einer übersichtlichen Liste angezeigt
- Stellen Sie sicher, dass die zu scannende Website erreichbar ist
- Einige Websites können den Zugriff durch Scraping blockieren
- Große Websites können längere Scanzeiten benötigen
Beiträge sind willkommen! Bitte erstellen Sie einen Pull Request oder öffnen Sie ein Issue für Vorschläge und Fehlermeldungen.
Entwickelt von MRT Media GmbH