# DaedalusPy
## Visão Geral
DaedalusPy é um framework para engenharia de dados, criado para acelerar a construção de bibliotecas de dados corporativas e pipelines analíticos modulares, com foco em padronização, governança, reuso e produtividade em ambientes cloud ou multi-cloud.
Pensando principalmente para utilização junto a ferramentas como azure synapse, Databricks e outros serviços de dados em nuvem, DaedalusPy permite que engenheiros de dados criem soluções robustas e escaláveis com facilidade.
Com o foco em trazer 2 grandes blocos de funcionalidades:
## Bibliotecas de Dados Corporativas
Bibliotecas de dados unificadas centralizam entidades, domínios, validações e funções reutilizáveis, promovendo o reuso e a governança de dados em toda a organização. Recomendamos que profissionais próximos ao DevOps criem e disponibilizem essas bibliotecas para os engenheiros de dados mais próximos do desenvolvimento dos pipelines, assegurando que todos sigam padrões e práticas recomendadas de forma consistente.
Embora o foco principal seja a biblioteca de dados, incentivamos que ela — assim como o datalake — seja tratada como um middleware estratégico. Dessa forma, todos os processos que dependem de dados na empresa passam a adotar uma linguagem de negócio única, independentemente de onde os dados estejam armazenados.
## Pipelines Analíticos Modulares
Pipelines analíticos modulares permitem a construção de fluxos de trabalho complexos de maneira simples, reutilizável e escalável. Com componentes desacoplados e altamente configuráveis, os engenheiros de dados podem orquestrar processos de ETL, transformação e análise de dados de forma eficiente, adaptando rapidamente as soluções às necessidades do negócio.
## Objetivos
- Padronizar a modelagem, transformação e integração de dados em projetos analíticos.
- Centralizar entidades, domínios, validações e funções reutilizáveis.
- Facilitar a construção, orquestração e manutenção de pipelines robustos e escaláveis.
- Promover governança, versionamento e documentação centralizada.
## Macro Entregas (Explicação Detalhada)
1. **Geração de Bibliotecas de Dados**
- **O que faz:** Cria a estrutura base de uma biblioteca de dados corporativa, centralizando entidades, configurações, serviços e ferramentas reutilizáveis.
- **Comando:**
```bash
daedaluspy create-lib <nome> [--dataname <entidade>] [--systemname <domínio>]
```
- **Argumentos:**
- `<nome>`: Nome da biblioteca (obrigatório).
- `--dataname <entidade>`: (Opcional) Nome da entidade principal a ser criada junto com a biblioteca.
- `--systemname <domínio>`: (Opcional) Nome do domínio/sistema principal.
- **Exemplo:**
```bash
daedaluspy create-lib corp_data --dataname ClienteEntity --systemname vendas
```
- **Como funciona:** Gera uma pasta `<libname>/` com subpastas para `config/`, `data/`, `service/`, `tools/` e arquivos essenciais. Isso garante que todo projeto siga o mesmo padrão e facilite o reuso entre times.
- **Quando usar:** Sempre que iniciar um novo domínio de dados ou projeto analítico.
2. **Geração de Entidades de Dados**
- **O que faz:** Cria classes de entidades de negócio (ex: ClienteEntity) já com estrutura OOP, enums, validações e templates prontos para uso.
- **Comando:**
```bash
daedaluspy create-data <ClasseEntidade> --tier <raw|clear|model> --cloud <azure|aws|google> [--columns <col1:tipo,col2:tipo,...>] [--output <pasta>]
```
- **Argumentos:**
- `<ClasseEntidade>`: Nome da classe da entidade (obrigatório, ex: ClienteEntity).
- `--tier <raw|clear|model>`: Camada da entidade (obrigatório).
- `--cloud <azure|aws|google>`: Provedor cloud de referência (obrigatório).
- `--columns <col1:tipo,col2:tipo,...>`: (Opcional) Lista de colunas e tipos, separadas por vírgula (ex: nome:str,idade:int).
- `--output <pasta>`: (Opcional) Caminho de saída para o arquivo gerado.
- **Exemplo:**
```bash
daedaluspy create-data ClienteEntity --tier raw --cloud azure --columns nome:str,idade:int,email:str
```
- **Como funciona:** Gera arquivos Python na estrutura correta, com métodos, validações e documentação, prontos para serem usados em pipelines e serviços.
- **Quando usar:** Sempre que precisar modelar uma nova entidade de dados, seja para ingestão, transformação ou consumo.
3. **Geração de Serviços**
- **O que faz:** Cria serviços de integração (ex: APIs, bancos de dados) já integrados à biblioteca, seguindo padrões de OOP e enums.
- **Comando:**
```bash
daedaluspy create-service <NomeServico> --type <api|database> [--models <Model1,Model2,...>] [--output <pasta>]
```
- **Argumentos:**
- `<NomeServico>`: Nome do serviço (obrigatório).
- `--type <api|database>`: Tipo do serviço (obrigatório).
- `--output <pasta>`: (Opcional) Caminho de saída para o serviço gerado.
- **Exemplo:**
```bash
daedaluspy create-service Salesforce --type api
```
- **Como funciona:** Gera a estrutura de serviço, facilitando integrações externas e padronizando o acesso a dados.
- **Quando usar:** Sempre que precisar integrar uma nova fonte ou destino de dados ao seu ecossistema.
4. **Geração de Pipelines**
- **O que faz:** Cria a estrutura de um pipeline modular, pronto para orquestração, sem subpastas desnecessárias e com todos os arquivos essenciais (main, config, steps, etc).
- **Comando:**
```bash
daedaluspy create-pipeline <domínio> <entidade> --tier <raw|clear|model> --output <pasta> [--template_type <tipo>] [--lib_name <nome>] [--cloud_provider <cloud>] [--entity_target <entidade>] [--entity_target_class <classe>]
```
- **Argumentos:**
- `<domínio>`: Nome do domínio do pipeline (obrigatório).
- `<entidade>`: Nome da entidade principal (obrigatório).
- `--tier <raw|clear|model>`: Camada do pipeline (obrigatório).
- `--output <pasta>`: Caminho de saída do pipeline (obrigatório), recomendamos em caso de azure synapse, sparkJobsFiles.
- `--lib_name <nome>`: (Opcional) Nome da biblioteca de dados a ser referenciada, caso tenha mais de uma biblioteca na mesma pasta.
- `--cloud_provider <cloud>`: (Opcional) Provedor cloud de referência, opções sendo: azure, aws, google.
- `--entity_target <entidade>`: (Opcional) Entidade alvo para integração.
- `--entity_target_class <classe>`: (Opcional) Classe da entidade alvo.
- **Exemplo:**
```bash
daedaluspy create-pipeline vendas ClienteEntity --tier clear --output ./vendas_pipeline --template_type etl --lib_name corp_data --cloud_provider azure
```
- **Como funciona:** Gera uma pasta do pipeline diretamente no local especificado, pronta para receber a lógica de negócio e ser executada.
- **Quando usar:** Sempre que precisar criar um novo fluxo de ingestão, transformação ou entrega de dados, reaproveitando entidades e serviços da biblioteca.
---
Cada comando do DaedalusPy foi desenhado para garantir padronização, acelerar o desenvolvimento e permitir que o engenheiro de dados foque no que realmente importa: a lógica de negócio e a entrega de valor. O CLI não substitui o trabalho do desenvolvedor, mas elimina o retrabalho estrutural e direciona o padrão arquitetural do projeto.
## Casos de Uso Reais
- **Criar biblioteca de dados corporativa:**
```bash
daedaluspy create-lib corp_data
```
- **Adicionar entidade de negócio:**
```bash
daedaluspy create-data ClienteEntity --tier raw --cloud azure
```
- **Adicionar serviço de integração:**
```bash
daedaluspy create-service Salesforce --type api
```
- **Gerar pipeline para domínio/entidade/camada:**
```bash
daedaluspy create-pipeline vendas ClienteEntity --tier clear --output .
```
## Estrutura Gerada (Exemplo Real)
```
corp_data/
config/
__init__.py
config.py
data/
raw/
__init__.py
ClienteEntity.py
clear/
model/
service/
salesforce/
__init__.py
tools/
logger/
__init__.py
__init__.py
README.md
setup.py
vendas_ClienteEntity_clear/
__init__.py
base.py
config.py
flowbuilder.py
steps.py
main.py
README.md
requirements.txt
```
## Fluxo de Trabalho Típico
1. **Crie a biblioteca:**
`daedaluspy create-lib corp_data`
2. **Adicione entidades e serviços:**
`daedaluspy create-data ClienteEntity --tier raw --cloud azure`
`daedaluspy create-service Salesforce --type api`
3. **Gere o pipeline:**
`daedaluspy create-pipeline vendas ClienteEntity --tier clear --output .`
4. **Implemente lógica e execute.**
## Melhores Práticas
- Use o CLI para gerar a estrutura base e arquivos padronizados.
- Implemente a lógica de negócio, transformações e integrações nos arquivos gerados.
- Siga os padrões do desenvolvimento orientado a objetos (OOP) e templates definidos pelo framework.
- Evite alterar manualmente a estrutura dos arquivos base gerados pelo CLI (exceto para lógica de negócio).
- Mantenha a biblioteca centralizada e versionada.
- Use templates para padronizar lógica e documentação.
## Público-Alvo
- Engenheiros e arquitetos de dados
- Times de analytics, BI e governança
## Licença
MIT
Raw data
{
"_id": null,
"home_page": "https://github.com/Golden-Valley-Consulting/DaedalusPy",
"name": "daedaluspy",
"maintainer": null,
"docs_url": null,
"requires_python": ">=3.7",
"maintainer_email": null,
"keywords": "code-generation, data-engineering, python, cli",
"author": "Golden Valley Consulting LTDA",
"author_email": "Golden Valley Consulting LTDA <contato@goldenvalleyc.com>",
"download_url": "https://files.pythonhosted.org/packages/0f/6f/ef6bd7a4e181aa82eef2031e09b87c535b83b82966a8254563c8f0f2e585/daedaluspy-1.0.3.tar.gz",
"platform": null,
"description": "# DaedalusPy\r\n\r\n## Vis\u00e3o Geral\r\nDaedalusPy \u00e9 um framework para engenharia de dados, criado para acelerar a constru\u00e7\u00e3o de bibliotecas de dados corporativas e pipelines anal\u00edticos modulares, com foco em padroniza\u00e7\u00e3o, governan\u00e7a, reuso e produtividade em ambientes cloud ou multi-cloud.\r\n\r\nPensando principalmente para utiliza\u00e7\u00e3o junto a ferramentas como azure synapse, Databricks e outros servi\u00e7os de dados em nuvem, DaedalusPy permite que engenheiros de dados criem solu\u00e7\u00f5es robustas e escal\u00e1veis com facilidade.\r\n\r\nCom o foco em trazer 2 grandes blocos de funcionalidades:\r\n\r\n## Bibliotecas de Dados Corporativas\r\n\r\nBibliotecas de dados unificadas centralizam entidades, dom\u00ednios, valida\u00e7\u00f5es e fun\u00e7\u00f5es reutiliz\u00e1veis, promovendo o reuso e a governan\u00e7a de dados em toda a organiza\u00e7\u00e3o. Recomendamos que profissionais pr\u00f3ximos ao DevOps criem e disponibilizem essas bibliotecas para os engenheiros de dados mais pr\u00f3ximos do desenvolvimento dos pipelines, assegurando que todos sigam padr\u00f5es e pr\u00e1ticas recomendadas de forma consistente.\r\n\r\nEmbora o foco principal seja a biblioteca de dados, incentivamos que ela \u2014 assim como o datalake \u2014 seja tratada como um middleware estrat\u00e9gico. Dessa forma, todos os processos que dependem de dados na empresa passam a adotar uma linguagem de neg\u00f3cio \u00fanica, independentemente de onde os dados estejam armazenados.\r\n\r\n## Pipelines Anal\u00edticos Modulares\r\n\r\nPipelines anal\u00edticos modulares permitem a constru\u00e7\u00e3o de fluxos de trabalho complexos de maneira simples, reutiliz\u00e1vel e escal\u00e1vel. Com componentes desacoplados e altamente configur\u00e1veis, os engenheiros de dados podem orquestrar processos de ETL, transforma\u00e7\u00e3o e an\u00e1lise de dados de forma eficiente, adaptando rapidamente as solu\u00e7\u00f5es \u00e0s necessidades do neg\u00f3cio.\r\n\r\n## Objetivos\r\n- Padronizar a modelagem, transforma\u00e7\u00e3o e integra\u00e7\u00e3o de dados em projetos anal\u00edticos.\r\n- Centralizar entidades, dom\u00ednios, valida\u00e7\u00f5es e fun\u00e7\u00f5es reutiliz\u00e1veis.\r\n- Facilitar a constru\u00e7\u00e3o, orquestra\u00e7\u00e3o e manuten\u00e7\u00e3o de pipelines robustos e escal\u00e1veis.\r\n- Promover governan\u00e7a, versionamento e documenta\u00e7\u00e3o centralizada.\r\n\r\n## Macro Entregas (Explica\u00e7\u00e3o Detalhada)\r\n\r\n\r\n1. **Gera\u00e7\u00e3o de Bibliotecas de Dados**\r\n - **O que faz:** Cria a estrutura base de uma biblioteca de dados corporativa, centralizando entidades, configura\u00e7\u00f5es, servi\u00e7os e ferramentas reutiliz\u00e1veis.\r\n - **Comando:**\r\n ```bash\r\n daedaluspy create-lib <nome> [--dataname <entidade>] [--systemname <dom\u00ednio>]\r\n ```\r\n - **Argumentos:**\r\n - `<nome>`: Nome da biblioteca (obrigat\u00f3rio).\r\n - `--dataname <entidade>`: (Opcional) Nome da entidade principal a ser criada junto com a biblioteca.\r\n - `--systemname <dom\u00ednio>`: (Opcional) Nome do dom\u00ednio/sistema principal.\r\n - **Exemplo:**\r\n ```bash\r\n daedaluspy create-lib corp_data --dataname ClienteEntity --systemname vendas\r\n ```\r\n - **Como funciona:** Gera uma pasta `<libname>/` com subpastas para `config/`, `data/`, `service/`, `tools/` e arquivos essenciais. Isso garante que todo projeto siga o mesmo padr\u00e3o e facilite o reuso entre times.\r\n - **Quando usar:** Sempre que iniciar um novo dom\u00ednio de dados ou projeto anal\u00edtico.\r\n\r\n2. **Gera\u00e7\u00e3o de Entidades de Dados**\r\n - **O que faz:** Cria classes de entidades de neg\u00f3cio (ex: ClienteEntity) j\u00e1 com estrutura OOP, enums, valida\u00e7\u00f5es e templates prontos para uso.\r\n - **Comando:**\r\n ```bash\r\n daedaluspy create-data <ClasseEntidade> --tier <raw|clear|model> --cloud <azure|aws|google> [--columns <col1:tipo,col2:tipo,...>] [--output <pasta>]\r\n ```\r\n - **Argumentos:**\r\n - `<ClasseEntidade>`: Nome da classe da entidade (obrigat\u00f3rio, ex: ClienteEntity).\r\n - `--tier <raw|clear|model>`: Camada da entidade (obrigat\u00f3rio).\r\n - `--cloud <azure|aws|google>`: Provedor cloud de refer\u00eancia (obrigat\u00f3rio).\r\n - `--columns <col1:tipo,col2:tipo,...>`: (Opcional) Lista de colunas e tipos, separadas por v\u00edrgula (ex: nome:str,idade:int).\r\n - `--output <pasta>`: (Opcional) Caminho de sa\u00edda para o arquivo gerado.\r\n - **Exemplo:**\r\n ```bash\r\n daedaluspy create-data ClienteEntity --tier raw --cloud azure --columns nome:str,idade:int,email:str\r\n ```\r\n - **Como funciona:** Gera arquivos Python na estrutura correta, com m\u00e9todos, valida\u00e7\u00f5es e documenta\u00e7\u00e3o, prontos para serem usados em pipelines e servi\u00e7os.\r\n - **Quando usar:** Sempre que precisar modelar uma nova entidade de dados, seja para ingest\u00e3o, transforma\u00e7\u00e3o ou consumo.\r\n\r\n3. **Gera\u00e7\u00e3o de Servi\u00e7os**\r\n - **O que faz:** Cria servi\u00e7os de integra\u00e7\u00e3o (ex: APIs, bancos de dados) j\u00e1 integrados \u00e0 biblioteca, seguindo padr\u00f5es de OOP e enums.\r\n - **Comando:**\r\n ```bash\r\n daedaluspy create-service <NomeServico> --type <api|database> [--models <Model1,Model2,...>] [--output <pasta>]\r\n ```\r\n - **Argumentos:**\r\n - `<NomeServico>`: Nome do servi\u00e7o (obrigat\u00f3rio).\r\n - `--type <api|database>`: Tipo do servi\u00e7o (obrigat\u00f3rio).\r\n - `--output <pasta>`: (Opcional) Caminho de sa\u00edda para o servi\u00e7o gerado.\r\n - **Exemplo:**\r\n ```bash\r\n daedaluspy create-service Salesforce --type api\r\n ```\r\n - **Como funciona:** Gera a estrutura de servi\u00e7o, facilitando integra\u00e7\u00f5es externas e padronizando o acesso a dados.\r\n - **Quando usar:** Sempre que precisar integrar uma nova fonte ou destino de dados ao seu ecossistema.\r\n\r\n4. **Gera\u00e7\u00e3o de Pipelines**\r\n - **O que faz:** Cria a estrutura de um pipeline modular, pronto para orquestra\u00e7\u00e3o, sem subpastas desnecess\u00e1rias e com todos os arquivos essenciais (main, config, steps, etc).\r\n - **Comando:**\r\n ```bash\r\n daedaluspy create-pipeline <dom\u00ednio> <entidade> --tier <raw|clear|model> --output <pasta> [--template_type <tipo>] [--lib_name <nome>] [--cloud_provider <cloud>] [--entity_target <entidade>] [--entity_target_class <classe>]\r\n ```\r\n - **Argumentos:**\r\n - `<dom\u00ednio>`: Nome do dom\u00ednio do pipeline (obrigat\u00f3rio).\r\n - `<entidade>`: Nome da entidade principal (obrigat\u00f3rio).\r\n - `--tier <raw|clear|model>`: Camada do pipeline (obrigat\u00f3rio).\r\n - `--output <pasta>`: Caminho de sa\u00edda do pipeline (obrigat\u00f3rio), recomendamos em caso de azure synapse, sparkJobsFiles.\r\n - `--lib_name <nome>`: (Opcional) Nome da biblioteca de dados a ser referenciada, caso tenha mais de uma biblioteca na mesma pasta.\r\n - `--cloud_provider <cloud>`: (Opcional) Provedor cloud de refer\u00eancia, op\u00e7\u00f5es sendo: azure, aws, google.\r\n - `--entity_target <entidade>`: (Opcional) Entidade alvo para integra\u00e7\u00e3o.\r\n - `--entity_target_class <classe>`: (Opcional) Classe da entidade alvo.\r\n - **Exemplo:**\r\n ```bash\r\n daedaluspy create-pipeline vendas ClienteEntity --tier clear --output ./vendas_pipeline --template_type etl --lib_name corp_data --cloud_provider azure\r\n ```\r\n - **Como funciona:** Gera uma pasta do pipeline diretamente no local especificado, pronta para receber a l\u00f3gica de neg\u00f3cio e ser executada.\r\n - **Quando usar:** Sempre que precisar criar um novo fluxo de ingest\u00e3o, transforma\u00e7\u00e3o ou entrega de dados, reaproveitando entidades e servi\u00e7os da biblioteca.\r\n\r\n---\r\n\r\nCada comando do DaedalusPy foi desenhado para garantir padroniza\u00e7\u00e3o, acelerar o desenvolvimento e permitir que o engenheiro de dados foque no que realmente importa: a l\u00f3gica de neg\u00f3cio e a entrega de valor. O CLI n\u00e3o substitui o trabalho do desenvolvedor, mas elimina o retrabalho estrutural e direciona o padr\u00e3o arquitetural do projeto.\r\n\r\n## Casos de Uso Reais\r\n\r\n- **Criar biblioteca de dados corporativa:**\r\n ```bash\r\n daedaluspy create-lib corp_data\r\n ```\r\n\r\n- **Adicionar entidade de neg\u00f3cio:**\r\n ```bash\r\n daedaluspy create-data ClienteEntity --tier raw --cloud azure\r\n ```\r\n\r\n- **Adicionar servi\u00e7o de integra\u00e7\u00e3o:**\r\n ```bash\r\n daedaluspy create-service Salesforce --type api\r\n ```\r\n\r\n- **Gerar pipeline para dom\u00ednio/entidade/camada:**\r\n ```bash\r\n daedaluspy create-pipeline vendas ClienteEntity --tier clear --output .\r\n ```\r\n\r\n## Estrutura Gerada (Exemplo Real)\r\n\r\n```\r\ncorp_data/\r\n config/\r\n __init__.py\r\n config.py\r\n data/\r\n raw/\r\n __init__.py\r\n ClienteEntity.py\r\n clear/\r\n model/\r\n service/\r\n salesforce/\r\n __init__.py\r\n tools/\r\n logger/\r\n __init__.py\r\n __init__.py\r\n README.md\r\n setup.py\r\n\r\nvendas_ClienteEntity_clear/\r\n __init__.py\r\n base.py\r\n config.py\r\n flowbuilder.py\r\n steps.py\r\n main.py\r\n README.md\r\n requirements.txt\r\n```\r\n\r\n## Fluxo de Trabalho T\u00edpico\r\n\r\n1. **Crie a biblioteca:** \r\n `daedaluspy create-lib corp_data`\r\n2. **Adicione entidades e servi\u00e7os:** \r\n `daedaluspy create-data ClienteEntity --tier raw --cloud azure` \r\n `daedaluspy create-service Salesforce --type api`\r\n3. **Gere o pipeline:** \r\n `daedaluspy create-pipeline vendas ClienteEntity --tier clear --output .`\r\n4. **Implemente l\u00f3gica e execute.**\r\n\r\n\r\n## Melhores Pr\u00e1ticas\r\n- Use o CLI para gerar a estrutura base e arquivos padronizados.\r\n- Implemente a l\u00f3gica de neg\u00f3cio, transforma\u00e7\u00f5es e integra\u00e7\u00f5es nos arquivos gerados.\r\n- Siga os padr\u00f5es do desenvolvimento orientado a objetos (OOP) e templates definidos pelo framework.\r\n- Evite alterar manualmente a estrutura dos arquivos base gerados pelo CLI (exceto para l\u00f3gica de neg\u00f3cio).\r\n- Mantenha a biblioteca centralizada e versionada.\r\n- Use templates para padronizar l\u00f3gica e documenta\u00e7\u00e3o.\r\n\r\n## P\u00fablico-Alvo\r\n- Engenheiros e arquitetos de dados\r\n- Times de analytics, BI e governan\u00e7a\r\n\r\n## Licen\u00e7a\r\nMIT\r\n",
"bugtrack_url": null,
"license": null,
"summary": "Code generation toolkit for data engineering",
"version": "1.0.3",
"project_urls": {
"Bug Tracker": "https://github.com/Golden-Valley-Consulting/daedaluspy/issues",
"Documentation": "https://daedaluspy.readthedocs.io",
"Homepage": "https://github.com/Golden-Valley-Consulting/daedaluspy",
"Repository": "https://github.com/Golden-Valley-Consulting/daedaluspy"
},
"split_keywords": [
"code-generation",
" data-engineering",
" python",
" cli"
],
"urls": [
{
"comment_text": null,
"digests": {
"blake2b_256": "31baeec9de8f93b081a8c6d4ffd11671228e9649ea8c49008a8d9a144a645625",
"md5": "79abb89649dacb2265d287930a414014",
"sha256": "9cd78e8cc634511befb19d12ef4770dfc5c7534c6a7a18e2190a68ef1f72d9f7"
},
"downloads": -1,
"filename": "daedaluspy-1.0.3-py3-none-any.whl",
"has_sig": false,
"md5_digest": "79abb89649dacb2265d287930a414014",
"packagetype": "bdist_wheel",
"python_version": "py3",
"requires_python": ">=3.7",
"size": 55084,
"upload_time": "2025-07-30T12:44:53",
"upload_time_iso_8601": "2025-07-30T12:44:53.236737Z",
"url": "https://files.pythonhosted.org/packages/31/ba/eec9de8f93b081a8c6d4ffd11671228e9649ea8c49008a8d9a144a645625/daedaluspy-1.0.3-py3-none-any.whl",
"yanked": false,
"yanked_reason": null
},
{
"comment_text": null,
"digests": {
"blake2b_256": "0f6fef6bd7a4e181aa82eef2031e09b87c535b83b82966a8254563c8f0f2e585",
"md5": "e5f406ecac742072d3525bef1d877211",
"sha256": "62f861e3882ebd952c46fc39f71f625a105850f4c3d745babbcfc686ba81c53e"
},
"downloads": -1,
"filename": "daedaluspy-1.0.3.tar.gz",
"has_sig": false,
"md5_digest": "e5f406ecac742072d3525bef1d877211",
"packagetype": "sdist",
"python_version": "source",
"requires_python": ">=3.7",
"size": 45303,
"upload_time": "2025-07-30T12:44:54",
"upload_time_iso_8601": "2025-07-30T12:44:54.527339Z",
"url": "https://files.pythonhosted.org/packages/0f/6f/ef6bd7a4e181aa82eef2031e09b87c535b83b82966a8254563c8f0f2e585/daedaluspy-1.0.3.tar.gz",
"yanked": false,
"yanked_reason": null
}
],
"upload_time": "2025-07-30 12:44:54",
"github": true,
"gitlab": false,
"bitbucket": false,
"codeberg": false,
"github_user": "Golden-Valley-Consulting",
"github_project": "DaedalusPy",
"github_not_found": true,
"lcname": "daedaluspy"
}