Datasets:
Update README.md
Browse files
README.md
CHANGED
|
@@ -31,23 +31,14 @@ from datasets import load_dataset
|
|
| 31 |
global dir_hf
|
| 32 |
dir_hf = 'jwsouza13/ved'
|
| 33 |
|
| 34 |
-
|
| 35 |
-
|
| 36 |
-
|
| 37 |
-
|
| 38 |
-
|
| 39 |
-
|
| 40 |
-
|
| 41 |
-
|
| 42 |
-
print(f"Carregando arquivos de: {dir_hf} na pasta {path_glob}")
|
| 43 |
-
|
| 44 |
-
dataset = load_dataset(
|
| 45 |
-
dir_hf,
|
| 46 |
-
data_files=path_glob
|
| 47 |
-
)
|
| 48 |
-
df_completo = dataset['train'].to_pandas()
|
| 49 |
-
|
| 50 |
-
return df_completo
|
| 51 |
```
|
| 52 |
|
| 53 |
Fazendo o merge para integrar as informações
|
|
@@ -57,8 +48,7 @@ info_ice_hev = pd.read_excel('https://huggingface.co/datasets/jwsouza13/ved/reso
|
|
| 57 |
info_phev_ev = pd.read_excel('https://huggingface.co/datasets/jwsouza13/ved/resolve/main/VED_Static_Data_PHEV%26EV.xlsx')
|
| 58 |
info_data = pd.concat([info_ice_hev, info_phev_ev], ignore_index=True)
|
| 59 |
|
| 60 |
-
|
| 61 |
-
df = data_eved.merge(info_data, on='VehId', how='left')
|
| 62 |
|
| 63 |
df_ice = df[df['Vehicle Type'] == 'ICE']
|
| 64 |
df_hev = df[df['Vehicle Type'] == 'HEV']
|
|
|
|
| 31 |
global dir_hf
|
| 32 |
dir_hf = 'jwsouza13/ved'
|
| 33 |
|
| 34 |
+
folder = 'eVED' # ou 'ved_1', 'ved_2'
|
| 35 |
+
path_glob = f"{folder}/*.csv"
|
| 36 |
+
|
| 37 |
+
dataset = load_dataset(
|
| 38 |
+
dir_hf,
|
| 39 |
+
data_files=path_glob
|
| 40 |
+
)
|
| 41 |
+
df_completo = dataset['train'].to_pandas()
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 42 |
```
|
| 43 |
|
| 44 |
Fazendo o merge para integrar as informações
|
|
|
|
| 48 |
info_phev_ev = pd.read_excel('https://huggingface.co/datasets/jwsouza13/ved/resolve/main/VED_Static_Data_PHEV%26EV.xlsx')
|
| 49 |
info_data = pd.concat([info_ice_hev, info_phev_ev], ignore_index=True)
|
| 50 |
|
| 51 |
+
df = df_completo.merge(info_data, on='VehId', how='left')
|
|
|
|
| 52 |
|
| 53 |
df_ice = df[df['Vehicle Type'] == 'ICE']
|
| 54 |
df_hev = df[df['Vehicle Type'] == 'HEV']
|