Kostenloser Apache Parquet Viewer Online – Parquet Dateien öffnen & analysieren

Betrachten und analysieren Sie Apache Parquet-Dateien direkt in Ihrem Browser. Untersuchen Sie Schemata, Metadaten und spaltenbasierte Datenstrukturen für Analytics, Data Engineering und ETL-Workflows. Konvertieren Sie Parquet-Dateien in JSON, CSV, TSV oder XLSX für die Weiterverarbeitung.

Upload Parquet File

Select a Parquet file to analyze and query. Maximum file size: 100MB

Drop your Parquet file here

or click to browse

Supported formats: .parquet, .parq
Max size: 100 MB

4.5

Ready to View Your Parquet Files?

Join thousands of developers who trust our OJF for their daily workflow. Fast, reliable, and completely free.

100% Free
No Registration
Privacy Protected

Online Parquet Viewer für Entwickler und Data Engineers

Öffnen und prüfen Sie Apache Parquet-Dateien online mit einem browserbasierten Viewer. Analysieren Sie Schemata, Metadaten und Datensätze. Exportieren Sie Teilmengen nach JSON oder CSV für Debugging und Validierung.

So zeigen Sie Parquet-Dateien in Python an

Parquet-Dateien mit Pandas anzeigen

python

Pandas ist die am weitesten verbreitete Bibliothek für die Datenmanipulation in Python und bietet eine einfache read_parquet-Funktion.

# Installation: pip install pandas
import pandas as pd

df = pd.read_parquet('path/to/file.parquet')
print(df.head())

Parquet-Dateien mit DuckDB anzeigen

python

DuckDB ist ein prozessinternes SQL-OLAP-Datenbankmanagementsystem, das Parquet-Dateien direkt abfragen kann.

# Installation: pip install duckdb
import duckdb

# Query directly from the file
result = duckdb.sql("SELECT * FROM 'path/to/file.parquet' LIMIT 10").fetchdf()
print(result)

Parquet-Dateien mit ClickHouse anzeigen

python

ClickHouse ist ein schnelles Open-Source-OLAP-Datenbankmanagementsystem mit nativer Parquet-Unterstützung.

# Installation: pip install clickhouse-connect
import clickhouse_connect

client = clickhouse_connect.get_client(host='localhost', port=8123)
query = "SELECT * FROM file('path/to/file.parquet') LIMIT 10"
result = client.query(query).result_set
print(result)

So zeigen Sie Parquet-Dateien in anderen Sprachen an

Parquet in Node.js anzeigen

javascript

Verwendung der parquetjs-Bibliothek zum Lesen von Parquet-Dateien in einer JavaScript-Umgebung.

// Installation: npm install parquetjs
const parquet = require('parquetjs');

async function readParquet() {
    let reader = await parquet.ParquetReader.openFile('example.parquet');
    let cursor = reader.getCursor();
    let record = null;
    while (record = await cursor.next()) {
        console.log(record);
    }
    await reader.close();
}

Parquet in Java anzeigen

java

Verwendung von Apache Parquet mit Avro für den Zugriff auf Datensatzebene in Java.

// Required dependencies: parquet-avro, parquet-hadoop
import org.apache.hadoop.fs.Path;
import org.apache.parquet.hadoop.ParquetReader;
import org.apache.parquet.avro.AvroParquetReader;
import org.apache.avro.generic.GenericRecord;

Path path = new Path("example.parquet");
try (ParquetReader<GenericRecord> reader = AvroParquetReader.<GenericRecord>builder(path).build()) {
    GenericRecord record;
    while ((record = reader.read()) != null) {
        System.out.println(record);
    }
}

Key Features of OJF

Take control of your data - everything in one place

Schema- & Metadaten-Inspektion

  • Untersuchung hierarchischer Parquet-Schemata einschließlich verschachtelter Felder und logischer Datentypen
  • Prüfung von Metadaten auf Spaltenebene wie Nullbarkeit, Kodierung und Kompressionsformate
  • Analyse von Row-Group-Informationen zum Verständnis von Datenpartitionierung und Layout
  • Einsicht in Statistiken auf Dateiebene für analytische Workloads und Data Lakes

Datenexploration

  • Durchsuchen von Parquet-Datensätzen in einer strukturierten Tabellenansicht für klare Analysen
  • Anwendung von spaltenbasierten Filtern mit integrierten Steuerelementen oder SQL-ähnlichen Ausdrücken
  • Sortieren von Datensätzen mittels datentyp-sensitiver Sortierung für präzise Ergebnisse
  • Umwandlung von Epoch-Zeitstempeln in lesbare Datums- und Zeitformate
  • Statistische Analyse von Spaltendaten inklusive Min-, Max- und Nullwert-Zählung

Konvertierung & Export

  • Konvertieren von Parquet-Dateien in das JSON-Format für APIs und Applikations-Workflows
  • Export von Datensätzen als CSV oder TSV für Reporting und Tabellenkalkulationen
  • Download von Daten im XLSX-Format für die volle Kompatibilität mit Microsoft Excel
  • Extraktion von gefilterten Teilmengen zur Validierung und nachgelagerten Verarbeitung
  • Download gefilterter Datensätze basierend auf benutzerdefinierten Auswahlkriterien

So nutzen Sie den Online Parquet Viewer

1

Laden Sie eine Parquet-Datei (.parquet) über den Datei-Auswahldialog hoch

2

Prüfen Sie das Schema, um Spalten, Datentypen und Verschachtelungen zu verstehen

3

Untersuchen Sie Metadaten wie Kompression, Kodierung und Row-Groups

4

Durchsuchen Sie die Datensätze in der Tabellenansicht für Validierung oder Debugging

5

Nutzen Sie Filter oder die Suche, um spezifische Daten einzugrenzen

6

Exportieren Sie die gewünschten Daten bei Bedarf nach JSON oder CSV

Why Choose Us?

Feature
Online JSON Formatt(OJF)
Other Tools
Schema-SichtbarkeitHierarchisches Schema mit Metadaten-KontextEingeschränkte oder flache Schema-Darstellung
Browserbasierte VerarbeitungLokale Inspektion direkt im Client (Datenschutz)Server-Upload erforderlich
Export-FlexibilitätJSON, CSV und Excel ExportEingeschränkte oder fehlende Export-Optionen

Frequently Asked Questions