Compare commits
8 Commits
main
...
feature/ev
| Author | SHA1 | Date | |
|---|---|---|---|
| d9bf44e669 | |||
| 07553d96cf | |||
| 3edf41b7a6 | |||
| 7e9218ce07 | |||
| fc6c66215e | |||
| 7d74fd75d3 | |||
| aa5cc18e24 | |||
| 0201985399 |
@@ -1,11 +1,10 @@
|
|||||||
import pandas as pd
|
import pandas as pd
|
||||||
# def read_excel(base_dir):
|
import server.backend.handlers.yandex_handler as yandex_handler
|
||||||
# try:
|
import server.backend.handlers.wb_handler as wb_handler
|
||||||
# dfs = pd.read_excel(base_dir, sheet_name=None)
|
import server.backend.handlers.ozon_handler as ozon_handler
|
||||||
# return dfs
|
import server.backend.handlers.ozon_purchases_handler as ozon_purchases_handler
|
||||||
# except Exception as e:
|
import server.backend.handlers.wb_purchases_handler as wb_purchases_handler
|
||||||
# raise f"⚠️ Ошибка при чтении {file.name}: {e}"
|
import server.backend.handlers.ozon_wb_yandex_com_handler as ozon_wb_yandex_com_handler
|
||||||
|
|
||||||
class BaseHandler:
|
class BaseHandler:
|
||||||
def __init__(self, file_path):
|
def __init__(self, file_path):
|
||||||
self.file_path = file_path
|
self.file_path = file_path
|
||||||
@@ -23,70 +22,86 @@ class BaseHandler:
|
|||||||
class YandexHandler(BaseHandler):
|
class YandexHandler(BaseHandler):
|
||||||
def process(self):
|
def process(self):
|
||||||
# читаем Excel внутри объекта
|
# читаем Excel внутри объекта
|
||||||
dfs = pd.read_excel(self.file_path, sheet_name=None)
|
#доставать дату
|
||||||
|
dfs = pd.read_excel(self.file_path, sheet_name=None, skiprows=[0, 1, 3]) #skip header
|
||||||
# проверяем наличие нужных листов
|
# проверяем наличие нужных листов
|
||||||
if "Получено от потребителей" not in dfs or "Возвращено потребителям" not in dfs:
|
if "Получено от потребителей" not in dfs or "Возвращено потребителям" not in dfs:
|
||||||
raise Exception(f"В файле {self.file_path.name} отсутствуют необходимые листы")
|
raise Exception(f"В файле {self.file_path.name} отсутствуют необходимые листы")
|
||||||
# сама обработка
|
# вызываем функцию evaluating
|
||||||
print("Реализация Яндекс")
|
validated_data = yandex_handler.evaluating(dfs)
|
||||||
|
print("Реализация Яндекс завершена, валидированных строк:", len(validated_data[0]), "Реализация", len(validated_data[1]), "Возвраты")
|
||||||
|
|
||||||
class WBHandler(BaseHandler):
|
class WBHandler(BaseHandler):
|
||||||
def process(self):
|
def process(self):
|
||||||
dfs = pd.read_excel(self.file_path, sheet_name=None)
|
dfs = pd.read_excel(self.file_path, sheet_name=None)
|
||||||
|
#доставать дату по месяцу и просто день ставить последний
|
||||||
if "Sheet1" not in dfs :
|
if "Sheet1" not in dfs :
|
||||||
raise Exception(f"В файле {self.file_path.name} отсутствуют необходимые листы")
|
raise Exception(f"В файле {self.file_path.name} отсутствуют необходимые листы")
|
||||||
print("Реализация WB")
|
validated_data = wb_handler.evaluating(dfs)
|
||||||
|
print("Реализация WB завершена, валидированных строк:", len(validated_data[0]), "Реализация", len(validated_data[1]), "Возвраты")
|
||||||
|
|
||||||
class OZONHandler(BaseHandler):
|
class OZONHandler(BaseHandler):
|
||||||
def process(self):
|
def process(self):
|
||||||
dfs = pd.read_excel(self.file_path, sheet_name=None)
|
#Доставать № документа и дату
|
||||||
|
dfs = pd.read_excel(self.file_path, sheet_name=None, skiprows=14, skipfooter=17) #skip the header and the footer
|
||||||
if "Отчет о реализации" not in dfs:
|
if "Отчет о реализации" not in dfs:
|
||||||
raise Exception(f"В файле {self.file_path.name} отсутствуют необходимые листы")
|
raise Exception(f"В файле {self.file_path.name} отсутствуют необходимые листы")
|
||||||
print("Реализация OZON")
|
validated_data = ozon_handler.evaluating(dfs)
|
||||||
|
print("Реализация OZON завершена, валидированных строк:", len(validated_data[0]), "Реализация", len(validated_data[1]), "Возвраты")
|
||||||
|
|
||||||
class OZONPurchasesHandler(BaseHandler):
|
class OZONPurchasesHandler(BaseHandler):
|
||||||
def process(self):
|
def process(self):
|
||||||
dfs = pd.read_excel(self.file_path, sheet_name=None)
|
#доставать дату и номер документа
|
||||||
|
dfs = pd.read_excel(self.file_path, sheet_name=None, skiprows=12, skipfooter=1)
|
||||||
if "Отчет о выкупленных товарах" not in dfs:
|
if "Отчет о выкупленных товарах" not in dfs:
|
||||||
raise Exception(f"В файле {self.file_path.name} отсутствуют необходимые листы")
|
raise Exception(f"В файле {self.file_path.name} отсутствуют необходимые листы")
|
||||||
print("Выкупы озон")
|
validated_data = ozon_purchases_handler.evaluating(dfs)
|
||||||
|
print("Выкупы OZON завершены, валидированных строк:", len(validated_data), "Реализация")
|
||||||
|
|
||||||
class WBPurchasesHandler(BaseHandler):
|
class WBPurchasesHandler(BaseHandler):
|
||||||
def process(self):
|
def process(self):
|
||||||
dfs = pd.read_excel(self.file_path, sheet_name=None)
|
dfs = pd.read_excel(self.file_path, sheet_name=None, skiprows=9, skipfooter=7)
|
||||||
if "Sheet1" not in dfs:
|
if "Sheet1" not in dfs:
|
||||||
raise Exception(f"В файле {self.file_path.name} отсутствуют необходимые листы")
|
raise Exception(f"В файле {self.file_path.name} отсутствуют необходимые листы")
|
||||||
print("Выкупы wb")
|
validated_data = wb_purchases_handler.evaluating(dfs)
|
||||||
|
print("Выкупы WB завершены, валидированных строк:", len(validated_data), "Реализация")
|
||||||
|
|
||||||
class OZONComHandler(BaseHandler):
|
class OZONComHandler(BaseHandler):
|
||||||
def process(self):
|
def process(self):
|
||||||
dfs = pd.read_excel(self.file_path, sheet_name=None)
|
dfs = pd.read_excel(self.file_path, sheet_name=None, skipfooter=1)
|
||||||
if "Лист_1" not in dfs:
|
if "Лист_1" not in dfs:
|
||||||
raise Exception(f"В файле {self.file_path.name} отсутствуют необходимые листы")
|
raise Exception(f"В файле {self.file_path.name} отсутствуют необходимые листы")
|
||||||
df = dfs["Лист_1"]
|
df = dfs["Лист_1"]
|
||||||
cont = df.iloc[1, 0]
|
cont = df.iloc[1, 0]
|
||||||
|
dfs = pd.read_excel(self.file_path, sheet_name=None, skiprows=[0,2],skipfooter=1)
|
||||||
if cont != "«Интернет решения» ООО":
|
if cont != "«Интернет решения» ООО":
|
||||||
raise Exception(f"В файле {self.file_path.name} неверный контрагент")
|
raise Exception(f"В файле {self.file_path.name} неверный контрагент")
|
||||||
print("Товары, переданные на комиссию озон")
|
validated_data = ozon_wb_yandex_com_handler.evaluating(dfs)
|
||||||
|
print("Передача на коммисию OZON завершена, валидированных строк:", len(validated_data), "Реализация")
|
||||||
|
|
||||||
class WBComHandler(BaseHandler):
|
class WBComHandler(BaseHandler):
|
||||||
def process(self):
|
def process(self):
|
||||||
dfs = pd.read_excel(self.file_path, sheet_name=None)
|
dfs = pd.read_excel(self.file_path, sheet_name=None, skipfooter=1)
|
||||||
if "Лист_1" not in dfs:
|
if "Лист_1" not in dfs:
|
||||||
raise Exception(f"В файле {self.file_path.name} отсутствуют необходимые листы")
|
raise Exception(f"В файле {self.file_path.name} отсутствуют необходимые листы")
|
||||||
df = dfs["Лист_1"]
|
df = dfs["Лист_1"]
|
||||||
cont = df.iloc[1, 0]
|
cont = df.iloc[1, 0]
|
||||||
|
dfs = pd.read_excel(self.file_path, sheet_name=None, skiprows=[0,2], skipfooter=1)
|
||||||
if cont != '"Вайлдберриз" ООО':
|
if cont != '"Вайлдберриз" ООО':
|
||||||
raise Exception(f"В файле {self.file_path.name} неверный контрагент")
|
raise Exception(f"В файле {self.file_path.name} неверный контрагент")
|
||||||
print("Товары, переданные на комиссию wb")
|
validated_data = ozon_wb_yandex_com_handler.evaluating(dfs)
|
||||||
|
print("Передача на коммисию WB завершена, валидированных строк:", len(validated_data), "Реализация")
|
||||||
|
|
||||||
class YandexComHandler(BaseHandler):
|
class YandexComHandler(BaseHandler):
|
||||||
def process(self):
|
def process(self):
|
||||||
dfs = pd.read_excel(self.file_path, sheet_name=None)
|
dfs = pd.read_excel(self.file_path, sheet_name=None, skipfooter=1)
|
||||||
if "Лист_1" not in dfs:
|
if "Лист_1" not in dfs:
|
||||||
raise Exception(f"В файле {self.file_path.name} отсутствуют необходимые листы")
|
raise Exception(f"В файле {self.file_path.name} отсутствуют необходимые листы")
|
||||||
df = dfs["Лист_1"]
|
df = dfs["Лист_1"]
|
||||||
cont = df.iloc[1, 0]
|
cont = df.iloc[1, 0]
|
||||||
|
dfs = pd.read_excel(self.file_path, sheet_name=None, skiprows=[0,2], skipfooter=1)
|
||||||
if cont != "Яндекс Маркет ООО":
|
if cont != "Яндекс Маркет ООО":
|
||||||
raise Exception(f"В файле {self.file_path.name} неверный контрагент")
|
raise Exception(f"В файле {self.file_path.name} неверный контрагент")
|
||||||
print("Товары, переданные на комиссию yandex")
|
validated_data = ozon_wb_yandex_com_handler.evaluating(dfs)
|
||||||
|
print("Передача на коммисию YANDEX завершена, валидированных строк:", len(validated_data), "Реализация")
|
||||||
|
|
||||||
|
|||||||
0
server/backend/handlers/__init__.py
Normal file
0
server/backend/handlers/__init__.py
Normal file
33
server/backend/handlers/ozon_handler.py
Normal file
33
server/backend/handlers/ozon_handler.py
Normal file
@@ -0,0 +1,33 @@
|
|||||||
|
from pydantic import ValidationError
|
||||||
|
from server.backend.pydantic import ExcelInfo
|
||||||
|
import re
|
||||||
|
|
||||||
|
from dotenv import load_dotenv #Работа с env
|
||||||
|
import os
|
||||||
|
load_dotenv()
|
||||||
|
PATTERN = os.getenv("PATTERN")
|
||||||
|
|
||||||
|
def process_sheet(df, real_arti:str, real_quantity:str, real_sum_1:str, real_sum_2:str):
|
||||||
|
df = df[[real_arti, real_quantity, real_sum_1, real_sum_2]].copy().dropna() #copy and drop all NA values
|
||||||
|
df = df[(df != 0).all(axis=1)] #drop all 0 values
|
||||||
|
df[real_sum_1]+=df[real_sum_2]
|
||||||
|
df = df[[real_arti, real_quantity, real_sum_1]].copy()
|
||||||
|
df.rename(columns={real_arti: 'arti', real_quantity: 'counts', real_sum_1: 'price'}, inplace=True) #переименовываем для pydantic
|
||||||
|
df['arti'] = df['arti'].astype(str).str.extract(f'({PATTERN})', flags=re.IGNORECASE) #arti под regex
|
||||||
|
|
||||||
|
df['price'] = df['price'].astype(float) #Float to Int, if exists
|
||||||
|
df['counts'] = df['counts'].astype(int) #Float to Int, if exists
|
||||||
|
df = df.groupby('arti', as_index=False).agg({'counts': 'sum', 'price': 'sum'}) #groupping
|
||||||
|
validated_rows, errors = [], []
|
||||||
|
for i, row in df.iterrows(): #проходит построчно по df, где i - индекс строки, row - данные строки
|
||||||
|
try:
|
||||||
|
validated_rows.append(ExcelInfo(**row.to_dict())) #добавляем в список проверенные данные полученные от pydantic, которые туда передаются в виде dict
|
||||||
|
except ValidationError as e:
|
||||||
|
errors.append((i, e.errors())) #выводит ошибку и пишет номер строки
|
||||||
|
if errors:
|
||||||
|
raise Exception(f"There are some errors with validation in Отчет о реализации, check it ", errors)
|
||||||
|
return validated_rows
|
||||||
|
def evaluating(dfs):
|
||||||
|
validated_rows_1 = process_sheet(dfs["Отчет о реализации"], real_arti='2',real_quantity='8', real_sum_1='5',real_sum_2='6') # номера столбцов от озона
|
||||||
|
validated_rows_2 = process_sheet(dfs["Отчет о реализации"], real_arti='2',real_quantity='16', real_sum_1='13',real_sum_2='14')#
|
||||||
|
return validated_rows_1, validated_rows_2
|
||||||
31
server/backend/handlers/ozon_purchases_handler.py
Normal file
31
server/backend/handlers/ozon_purchases_handler.py
Normal file
@@ -0,0 +1,31 @@
|
|||||||
|
from pydantic import ValidationError
|
||||||
|
from server.backend.pydantic import ExcelInfo
|
||||||
|
import re
|
||||||
|
|
||||||
|
from dotenv import load_dotenv #Работа с env
|
||||||
|
import os
|
||||||
|
load_dotenv()
|
||||||
|
PATTERN = os.getenv("PATTERN")
|
||||||
|
|
||||||
|
def process_sheet(df, real_arti:int, real_quantity:int, real_sum_1:int):
|
||||||
|
df = df[[real_arti, real_quantity, real_sum_1]].copy().dropna() #copy and drop all NA values
|
||||||
|
df = df[(df != 0).all(axis=1)] #drop all 0 values
|
||||||
|
df = df[[real_arti, real_quantity, real_sum_1]].copy()
|
||||||
|
df.rename(columns={real_arti: 'arti', real_quantity: 'counts', real_sum_1: 'price'}, inplace=True) #переименовываем для pydantic
|
||||||
|
df['arti'] = df['arti'].astype(str).str.extract(f'({PATTERN})', flags=re.IGNORECASE) #arti под regex
|
||||||
|
|
||||||
|
df['price'] = df['price'].astype(float) #Float to Int, if exists
|
||||||
|
df['counts'] = df['counts'].astype(int) #Float to Int, if exists
|
||||||
|
df = df.groupby('arti', as_index=False).agg({'counts': 'sum', 'price': 'sum'}) #groupping
|
||||||
|
validated_rows, errors = [], []
|
||||||
|
for i, row in df.iterrows(): #проходит построчно по df, где i - индекс строки, row - данные строки
|
||||||
|
try:
|
||||||
|
validated_rows.append(ExcelInfo(**row.to_dict())) #добавляем в список проверенные данные полученные от pydantic, которые туда передаются в виде dict
|
||||||
|
except ValidationError as e:
|
||||||
|
errors.append((i, e.errors())) #выводит ошибку и пишет номер строки
|
||||||
|
if errors:
|
||||||
|
raise Exception(f"There are some errors with validation in Отчет о выкупленных товарах, check it ", errors)
|
||||||
|
return validated_rows
|
||||||
|
def evaluating(dfs):
|
||||||
|
validated_rows_1 = process_sheet(dfs["Отчет о выкупленных товарах"], real_arti=3,real_quantity=10, real_sum_1=11) # номера столбцов от озона
|
||||||
|
return validated_rows_1
|
||||||
32
server/backend/handlers/ozon_wb_yandex_com_handler.py
Normal file
32
server/backend/handlers/ozon_wb_yandex_com_handler.py
Normal file
@@ -0,0 +1,32 @@
|
|||||||
|
from pydantic import ValidationError
|
||||||
|
from server.backend.pydantic import ExcelInfo
|
||||||
|
import re
|
||||||
|
|
||||||
|
from dotenv import load_dotenv #Работа с env
|
||||||
|
import os
|
||||||
|
load_dotenv()
|
||||||
|
PATTERN = os.getenv("PATTERN")
|
||||||
|
|
||||||
|
def process_sheet(df, real_arti:str, real_quantity:str, real_sum_1:str):
|
||||||
|
df = df[[real_arti, real_quantity, real_sum_1]].copy().dropna() #copy and drop all NA values
|
||||||
|
df = df[(df != 0).all(axis=1)] #drop all 0 values
|
||||||
|
df = df[[real_arti, real_quantity, real_sum_1]].copy()
|
||||||
|
df.rename(columns={real_arti: 'arti', real_quantity: 'counts', real_sum_1: 'price'}, inplace=True) #переименовываем для pydantic
|
||||||
|
df['arti'] = df['arti'].astype(str).str.extract(f'({PATTERN})', flags=re.IGNORECASE) #arti под regex
|
||||||
|
|
||||||
|
df['price'] = df['price'].astype(float) #переделка к норм виду и преобразование в float
|
||||||
|
df['counts'] = df['counts'].astype(int) #Float to Int, if exists
|
||||||
|
df = df.groupby('arti', as_index=False).agg({'counts': 'sum', 'price': 'sum'}) #groupping
|
||||||
|
|
||||||
|
validated_rows, errors = [], []
|
||||||
|
for i, row in df.iterrows(): #проходит построчно по df, где i - индекс строки, row - данные строки
|
||||||
|
try:
|
||||||
|
validated_rows.append(ExcelInfo(**row.to_dict())) #добавляем в список проверенные данные полученные от pydantic, которые туда передаются в виде dict
|
||||||
|
except ValidationError as e:
|
||||||
|
errors.append((i, e.errors())) #выводит ошибку и пишет номер строки
|
||||||
|
if errors:
|
||||||
|
raise Exception(f"There are some errors with validation in Лист_1, check it ", errors)
|
||||||
|
return validated_rows
|
||||||
|
def evaluating(dfs):
|
||||||
|
validated_rows_1 = process_sheet(dfs["Лист_1"], real_arti="Артикул",real_quantity=dfs["Лист_1"].columns[4], real_sum_1=dfs["Лист_1"].columns[8]) # номера столбцов
|
||||||
|
return validated_rows_1
|
||||||
41
server/backend/handlers/wb_handler.py
Normal file
41
server/backend/handlers/wb_handler.py
Normal file
@@ -0,0 +1,41 @@
|
|||||||
|
from pydantic import ValidationError
|
||||||
|
from server.backend.pydantic import ExcelInfo
|
||||||
|
import re
|
||||||
|
|
||||||
|
from dotenv import load_dotenv #Работа с env
|
||||||
|
import os
|
||||||
|
load_dotenv()
|
||||||
|
PATTERN = os.getenv("PATTERN")
|
||||||
|
|
||||||
|
def process_sheet(df, document_type:str):
|
||||||
|
df = df[['Артикул поставщика', 'Тип документа', 'Кол-во', 'Вайлдберриз реализовал Товар (Пр)']].copy().dropna() #copy and drop all NA values
|
||||||
|
df = df[(df != 0).all(axis=1)] #drop all 0 values
|
||||||
|
df = df[df['Тип документа'] == document_type] #фильтруем по типу документа
|
||||||
|
|
||||||
|
df = df[['Артикул поставщика', 'Кол-во', 'Вайлдберриз реализовал Товар (Пр)']].copy()
|
||||||
|
df.rename(columns={'Артикул поставщика': 'arti', 'Кол-во': 'counts', 'Вайлдберриз реализовал Товар (Пр)': 'price'}, inplace=True) #переименовываем для pydantic
|
||||||
|
df['arti'] = df['arti'].astype(str).str.extract(f'({PATTERN})', flags=re.IGNORECASE) #arti под regex
|
||||||
|
|
||||||
|
df['price'] = df['price'].astype(float) #Float to Int, if exists
|
||||||
|
df['counts'] = df['counts'].astype(int) #Float to Int, if exists
|
||||||
|
df = df.groupby('arti', as_index=False).agg({'counts': 'sum', 'price': 'sum'})
|
||||||
|
validated_rows, errors = [], []
|
||||||
|
for i, row in df.iterrows(): #проходит построчно по df, где i - индекс строки, row - данные строки
|
||||||
|
try:
|
||||||
|
validated_rows.append(ExcelInfo(**row.to_dict())) #добавляем в список проверенные данные полученные от pydantic, которые туда передаются в виде dict
|
||||||
|
except ValidationError as e:
|
||||||
|
errors.append((i, e.errors())) #выводит ошибку и пишет номер строки
|
||||||
|
if errors:
|
||||||
|
raise Exception(f"There are some errors with validation in Sheet1, check it ", errors)
|
||||||
|
return validated_rows
|
||||||
|
|
||||||
|
def evaluating(dfs):
|
||||||
|
validated_rows_1 = process_sheet(dfs["Sheet1"], document_type='Продажа')
|
||||||
|
validated_rows_2 = process_sheet(dfs["Sheet1"], document_type='Возврат')
|
||||||
|
# sum_1 = sum(row.price for row in validated_rows_1)
|
||||||
|
# sum_2 = sum(row.price for row in validated_rows_2)
|
||||||
|
|
||||||
|
# print("Sum for 'Продажа':", sum_1)
|
||||||
|
# print("Sum for 'Возврат':", sum_2)
|
||||||
|
return validated_rows_1, validated_rows_2
|
||||||
|
|
||||||
33
server/backend/handlers/wb_purchases_handler.py
Normal file
33
server/backend/handlers/wb_purchases_handler.py
Normal file
@@ -0,0 +1,33 @@
|
|||||||
|
from pydantic import ValidationError
|
||||||
|
from server.backend.pydantic import ExcelInfo
|
||||||
|
import re
|
||||||
|
|
||||||
|
from dotenv import load_dotenv #Работа с env
|
||||||
|
import os
|
||||||
|
load_dotenv()
|
||||||
|
PATTERN = os.getenv("PATTERN")
|
||||||
|
|
||||||
|
def process_sheet(df, real_arti:str, real_quantity:str, real_sum_1:str):
|
||||||
|
df = df[[real_arti, real_quantity, real_sum_1]].copy().dropna() #copy and drop all NA values
|
||||||
|
df = df[(df != 0).all(axis=1)] #drop all 0 values
|
||||||
|
df = df[[real_arti, real_quantity, real_sum_1]].copy()
|
||||||
|
df.rename(columns={real_arti: 'arti', real_quantity: 'counts', real_sum_1: 'price'}, inplace=True) #переименовываем для pydantic
|
||||||
|
df['arti'] = df['arti'].astype(str).str.extract(f'({PATTERN})', flags=re.IGNORECASE) #arti под regex
|
||||||
|
|
||||||
|
df['price'] = df['price'].str.replace(' ', '', regex=False).str.replace(',', '.', regex=False).astype(float) #переделка к норм виду и преобразование в float
|
||||||
|
df['counts'] = df['counts'].astype(int) #Float to Int, if exists
|
||||||
|
df = df.groupby('arti', as_index=False).agg({'counts': 'sum', 'price': 'sum'}) #groupping
|
||||||
|
|
||||||
|
validated_rows, errors = [], []
|
||||||
|
for i, row in df.iterrows(): #проходит построчно по df, где i - индекс строки, row - данные строки
|
||||||
|
try:
|
||||||
|
validated_rows.append(ExcelInfo(**row.to_dict())) #добавляем в список проверенные данные полученные от pydantic, которые туда передаются в виде dict
|
||||||
|
except ValidationError as e:
|
||||||
|
errors.append((i, e.errors())) #выводит ошибку и пишет номер строки
|
||||||
|
if errors:
|
||||||
|
raise Exception(f"There are some errors with validation in Sheet1, check it ", errors)
|
||||||
|
return validated_rows
|
||||||
|
def evaluating(dfs):
|
||||||
|
validated_rows_1 = process_sheet(dfs["Sheet1"], real_arti='Артикул',real_quantity="Количество", real_sum_1='''Сумма выкупа, руб.,
|
||||||
|
(вкл. НДС)''') # номера столбцов от озона
|
||||||
|
return validated_rows_1
|
||||||
33
server/backend/handlers/yandex_handler.py
Normal file
33
server/backend/handlers/yandex_handler.py
Normal file
@@ -0,0 +1,33 @@
|
|||||||
|
from pydantic import ValidationError
|
||||||
|
from server.backend.pydantic import ExcelInfo
|
||||||
|
import re
|
||||||
|
|
||||||
|
from dotenv import load_dotenv #Работа с env
|
||||||
|
import os
|
||||||
|
load_dotenv()
|
||||||
|
PATTERN = os.getenv("PATTERN")
|
||||||
|
|
||||||
|
def process_sheet(df, multiply_price=1, sheet_name=''):
|
||||||
|
df = df[['Ваш SKU', 'Количество, шт.', 'Сумма транзакции, ₽']].copy().dropna() #выбираем нужные колонки, делаем копию, чтобы можно было удалить None inline модом
|
||||||
|
df = df[(df != 0).all(axis=1)] #drop all 0 values
|
||||||
|
df['Сумма транзакции, ₽'] *= multiply_price #умножаем на -1 для возвратов
|
||||||
|
df.rename(columns={'Ваш SKU': 'arti', 'Количество, шт.': 'counts', 'Сумма транзакции, ₽': 'price'}, inplace=True) #переименовываем для pydantic
|
||||||
|
df['arti'] = df['arti'].astype(str).str.extract(f'({PATTERN})', flags=re.IGNORECASE) #regex implemented
|
||||||
|
|
||||||
|
df['price'] = df['price'].astype(float) #To float, if exists
|
||||||
|
df['counts'] = df['counts'].astype(int) #To float, if exists
|
||||||
|
df = df.groupby('arti', as_index=False).agg({'counts': 'sum', 'price': 'sum'}) #groupping
|
||||||
|
|
||||||
|
validated_rows, errors = [], []
|
||||||
|
for i, row in df.iterrows(): #проходит построчно по df, где i - индекс строки, row - данные строки
|
||||||
|
try:
|
||||||
|
validated_rows.append(ExcelInfo(**row.to_dict())) #добавляем в список проверенные данные полученные от pydantic, которые туда передаются в виде dict
|
||||||
|
except ValidationError as e:
|
||||||
|
errors.append((i, e.errors())) #выводит ошибку и пишет номер строки
|
||||||
|
if errors:
|
||||||
|
raise Exception(f"There are some errors with validation in {sheet_name}, check it ", errors)
|
||||||
|
return validated_rows
|
||||||
|
def evaluating(dfs):
|
||||||
|
validated_rows_1 = process_sheet(dfs["Получено от потребителей"], sheet_name="Получено от потребителей")
|
||||||
|
validated_rows_2 = process_sheet(dfs["Возвращено потребителям"], multiply_price=-1, sheet_name="Возвращено потребителям")
|
||||||
|
return validated_rows_1, validated_rows_2
|
||||||
@@ -1,8 +1,8 @@
|
|||||||
from pydantic import BaseModel, Field, field_validator
|
from pydantic import BaseModel, Field, field_validator
|
||||||
class ExcelInfo(BaseModel):
|
class ExcelInfo(BaseModel):
|
||||||
arti:str = Field(..., min_length=6, max_length=12, description="arti of the clothes")
|
arti:str = Field(..., min_length=5, max_length=12, description="arti of the clothes")
|
||||||
counts:int = Field(..., ge=0, description="the quantity of the clothes")
|
counts:int = Field(..., gt=0, description="the quantity of the clothes")
|
||||||
price:int = Field(..., ge=0, description="the price of the clothes")
|
price:float = Field(..., gt=0, description="the price of the clothes")
|
||||||
class ExcelRealization(BaseModel):
|
class ExcelRealization(BaseModel):
|
||||||
pass
|
pass
|
||||||
class ExcelReturning(BaseModel):
|
class ExcelReturning(BaseModel):
|
||||||
|
|||||||
Reference in New Issue
Block a user