Índice
O Cloud Connector é como o Procore compartilha dados, inteligência e análises com nossos clientes. Isso pode ser compartilhado diretamente com ferramentas de relatório, como Power BI ou Tableau. Ele também pode ser compartilhado com data warehouses, lojas, lagos ou outros aplicativos dos clientes. Os clientes podem até mesmo criar acesso programático aos seus dados usando o Cloud Connector para uma verdadeira automação. O Cloud Connector é baseado no protocolo de compartilhamento aberto Delta Share.
O Delta Sharing é o primeiro protocolo aberto do setor para compartilhamento seguro de dados, facilitando o compartilhamento de dados com outras organizações, independentemente das plataformas de computação usadas. Muitos aplicativos podem acessar dados com o Delta Share. No entanto, para aprimorar ainda mais a experiência do cliente, o Procore adicionou conectores, código pré-criado e guias para as seguintes plataformas, reduzindo o tempo de configuração e a complexidade para permitir uma conexão perfeita e pronta para uso.
Mais conectores de dados em breve!
Documentação abrangente e exemplos de código estão disponíveis no produto Procore Analytics diretamente no aplicativo Web do Procore, acessível por seus administradores do Procore. Esses recursos fornecem instruções passo a passo, trechos de código e práticas recomendadas para ajudá-lo a configurar e gerenciar sua integração de dados de forma eficaz.
Continue para a próxima seção deste guia para iniciar o processo de configuração.
Para consultas ou assistência adicionais, entre em contato com seu gerente de conta ou nossa equipe de suporte.
Certifique-se de que as permissões adequadas sejam atribuídas para gerar um token de acesso para que possa começar a conectar seus dados do Procore à sua solução de BI. O acesso ao Procore Analytics está vinculado ao seu login credenciais do Procore, o que permite gerar um único token de acesso. O token de acesso é uma sequência de dígitos que você inserirá em seu sistema de BI para acessar os dados.
Normalmente, os usuários que precisam de tokens de acesso são engenheiros de dados ou desenvolvedores do Power BI. Se você tiver acesso a Procore Analytics em várias empresas, seu token permitirá que você extraia dados de todas elas. O token está vinculado a você, não a uma empresa específica, portanto, permanece o mesmo em todas as empresas às quais você tem acesso.
Os administradores da empresa e do projeto receberão uma função de administrador por padrão. Os seguintes níveis de acesso de usuário são permitidos para a ferramenta Procore Analytics:
O acesso aos dados na ferramenta Procore Analytics será revogado quando as permissões de um usuário para a ferramenta forem removidas. Além disso, se o registro de contato de um usuário ficar inativo, ele também perderá o acesso aos dados Procore Analytics.
Para começar a acessar seus dados do Procore, há duas opções para gerar seus credenciais de acesso aos dados: o método de conexão direta do Databricks ou o método Delta Share Token. O token de acesso é uma cadeia de dígitos que você inserirá no conector de dados aplicável para acessar os dados.


A ferramenta Procore Analytics Cloud Connect Access é uma interface de linha de comando (CLI) que ajuda a configurar e gerenciar transferências de dados do Procore para o MS SQL Server. Consiste em dois componentes principais:
Isso ajudará você a configurar o seguinte:
Após a configuração, você tem duas opções para executar a sincronização de dados:
{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"ponto de extremidade": "https://nvirginia.nuvem. databricks.c... alojas/xxxxxx"
}
Você precisará fornecer os seguintes detalhes do MS SQL Server:




Este guia fornece instruções detalhadas para configurar e usar o pacote de integração do Compartilhamento Delta em um sistema operacional Windows para integrar dados perfeitamente em seus fluxos de trabalho com Procore Analytics. O pacote suporta várias opções de execução, permitindo que você escolha a configuração e o método de integração desejados.
Certifique-se de ter o seguinte antes de prosseguir:

{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"ponto de extremidade": "https://nvirginia.nuvem. databricks.c... alojas/xxxxxx"
}

Você também pode verificar o agendamento executando o comando no terminal:
Para Linux e MacOs:
Para editar/excluir - edite o cron de agendamento usando:
''Bash
EDITOR=nano crontab -e
```
Para Windows:
Questão de Execução Imediata:
Problemas e soluções comuns
Suporte
Para obter ajuda adicional:
Obs.
Este guia fornece instruções detalhadas para configurar e usar o pacote de integração do Compartilhamento Delta em um sistema operacional Windows para integrar dados perfeitamente em seus fluxos de trabalho com Procore Analytics. O pacote suporta várias opções de execução, permitindo que você escolha a configuração e o método de integração desejados.
Certifique-se de ter o seguinte antes de prosseguir:

{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"ponto de extremidade": "https://nvirginia.nuvem. databricks.c... alojas/xxxxxx"
}

Você também pode verificar o agendamento executando o comando no terminal:
Para Linux e MacOs:
Para editar/excluir - edite o cron de agendamento usando:
''Bash
EDITOR=nano crontab -e
```
Para Windows:
Questão de Execução Imediata:
Problemas e soluções comuns
Suporte
Para obter ajuda adicional:
Obs.
Este guia orienta você na configuração e implantação de uma Função do Azure para integrar dados de Compartilhamento Delta com Procore Analytics. A Função do Azure permite fluxos de trabalho eficientes de processamento e compartilhamento de dados com perfis de Compartilhamento Delta.
Ir para
para obter instruções sobre como instalar o Azure Functions ferramentas principais.
Este guia fornece instruções detalhadas para configurar e usar o pacote de integração do Compartilhamento Delta em um sistema operacional Windows para integrar dados perfeitamente em seus fluxos de trabalho com Procore Analytics. O pacote suporta várias opções de execução, permitindo que você escolha a configuração e o método de integração desejados.
Certifique-se de ter o seguinte antes de prosseguir:

{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"ponto de extremidade": "https://nvirginia.nuvem. databricks.c... alojas/xxxxxx"
}

Você também pode verificar o agendamento executando o comando no terminal:
Para Linux e MacOs:
Para editar/excluir - edite o cron de agendamento usando:
''Bash
EDITOR=nano crontab -e
```
Para Windows:
Questão de Execução Imediata:
Problemas e soluções comuns
Suporte
Para obter ajuda adicional:
Obs.
Este guia fornece instruções detalhadas para configurar e usar o pacote de integração do Compartilhamento Delta em um sistema operacional Windows para integrar dados perfeitamente em seus fluxos de trabalho com Procore Analytics. O pacote suporta várias opções de execução, permitindo que você escolha a configuração e o método de integração desejados.
Certifique-se de ter o seguinte antes de prosseguir:

{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"ponto de extremidade": "https://nvirginia.nuvem. databricks.c... alojas/xxxxxx"
}

Você também pode verificar o agendamento executando o comando no terminal:
Para Linux e MacOs:
Para editar/excluir - edite o cron de agendamento usando:
''Bash
EDITOR=nano crontab -e
```
Para Windows:
Questão de Execução Imediata:
Problemas e soluções comuns
Suporte
Para obter ajuda adicional:
Obs.
A integração do Compartilhamento Delta com o Microsoft Fabric Data Factory permite o acesso e o processamento contínuos de tabelas Delta compartilhadas para seus fluxos de trabalho de análise com o Procore Analytics 2.0. O Delta Sharing, um protocolo aberto para colaboração segura de dados, garante que as organizações possam compartilhar dados sem duplicação.




Depois de configurar o fluxo de dados, agora você pode aplicar transformações aos dados Delta compartilhados. Escolha sua opção Delta Sharing Data na lista abaixo:
Teste seus pipelines e fluxos de dados para garantir uma execução suave. Usar ferramentas de monitoramento nos dados
Fábrica para acompanhar o progresso e os registros de cada atividade.
O uso do Data Factory no Microsoft Fabric com o Compartilhamento Delta permite a integração e o processamento contínuos de tabelas Delta compartilhadas como parte de seus fluxos de trabalho de análise com o Procore Analytics 2.0. O Compartilhamento Delta é um protocolo aberto para compartilhamento seguro de dados, permitindo a colaboração entre organizações sem duplicar dados.
Este guia orienta você pelas etapas para configurar e usar o Data Factory em malha com o Compartilhamento Delta, utilizando Notebooks para processar e exportar dados para uma Lakehouse.



3. Copie o código do ds_to_lakehouse.py e cole na janela do notebook (Pyspark Python):

A próxima etapa é carregar seu próprio config.yaml e config.share na pasta Recursos do Lakehouse. Você pode criar seu próprio diretório ou usar um diretório interno (já criado para recursos pela Lakehouse):


O exemplo abaixo mostra um diretório interno padrão para um arquivo config.yaml.
Nota: Certifique-se de carregar ambos os arquivos no mesmo nível e para a propriedade config_path:

4. Verifique o código do caderno, linhas 170-175.
O exemplo abaixo mostra as alterações de linha necessárias:
config_path = "./env/config.yaml"
Para
config_path = "./builtin/config.yaml"
Como os arquivos estão em uma pasta interna e não em um env personalizado, certifique-se de monitorar sua própria estrutura dos arquivos. Você pode carregá-los em pastas diferentes, mas nesses casos, atualize o código do bloco de anotações para encontrar o arquivo config.yaml corretamente.

5. Clique em Executar célula:

Este guia orienta você na configuração e implantação de uma Função do Azure para integrar dados de Compartilhamento Delta com Procore Analytics. A Função do Azure permite fluxos de trabalho eficientes de processamento e compartilhamento de dados com perfis de Compartilhamento Delta.
Ir para
para obter instruções sobre como instalar o Azure Functions ferramentas principais.Este documento fornece instruções passo a passo para configurar um pipeline de dados no Microsoft Fabric para transferir dados do Compartilhamento Delta para um armazém SQL. Essa configuração permite a integração perfeita de dados entre as origens do Delta Lake e os destinos SQL.
Problemas e soluções comuns:
O uso do Data Factory no Microsoft Fabric com o Compartilhamento Delta permite a integração e o processamento contínuos de tabelas Delta compartilhadas como parte de seus fluxos de trabalho de análise com o Procore Analytics 2.0. O Compartilhamento Delta é um protocolo aberto para compartilhamento seguro de dados, permitindo a colaboração entre organizações sem duplicar dados.
Este guia orienta você pelas etapas para configurar e usar o Data Factory em malha com o Compartilhamento Delta, utilizando Notebooks para processar e exportar dados para uma Lakehouse.



3. Copie o código do ds_to_lakehouse.py e cole na janela do notebook (Pyspark Python):

A próxima etapa é carregar seu próprio config.yaml e config.share na pasta Recursos do Lakehouse. Você pode criar seu próprio diretório ou usar um diretório interno (já criado para recursos pela Lakehouse):


O exemplo abaixo mostra um diretório interno padrão para um arquivo config.yaml.
Nota: Certifique-se de carregar ambos os arquivos no mesmo nível e para a propriedade config_path:

4. Verifique o código do caderno, linhas 170-175.
O exemplo abaixo mostra as alterações de linha necessárias:
config_path = "./env/config.yaml"
Para
config_path = "./builtin/config.yaml"
Como os arquivos estão em uma pasta interna e não em um env personalizado, certifique-se de monitorar sua própria estrutura dos arquivos. Você pode carregá-los em pastas diferentes, mas nesses casos, atualize o código do bloco de anotações para encontrar o arquivo config.yaml corretamente.

5. Clique em Executar célula:





Entre em contato com o suporte do Procore se tiver alguma dúvida ou precisar de assistência.
A ferramenta Procore Analytics Cloud Connect Access é uma interface de linha de comando (CLI) que ajuda você a configurar e gerenciar transferências de dados do Procore para o Snowflake.
Consiste em dois componentes principais:
Execute o utilitário de configuração usando python user_exp.py.
Após a configuração, você tem duas opções para executar a sincronização de dados:
Para Linux e MacOS:
''Bash
EDITOR=nano crontab -e
```
2 * * * *
/Usuários/your_user/floco de neve/venv/bin/python
/Usuários/your_user/Flocos de neve/sql_server_python/connection_config.py
2>&1 | durante a linha de leitura; fazer echo "$(date) - $line"; feito>>
/Usuários/your_user/floco de neve/sql_server_python/procore_scheduling.log #procore-data-import
Para Windows:
```
powershell
schtasks /query /tn "ProcoreDeltaShareScheduling" /fo LIST /v
```
{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"ponto de extremidade": "https://nvirginia.nuvem. databricks.c... alojas/xxxxxx"
}
Você precisará fornecer os seguintes detalhes do Flocos de Neve:
A ferramenta oferece a capacidade de agendar a sincronização automática de dados.
Unset
├── requirements.txt # Dependências
├── user_exp.py # Utilitário de configuração
├── ds_to_snowflake.py # Script de sincronização de dados
├── config.yaml # Configuração gerada
├── config.share # Arquivo de configuração do Delta Share
├── procore_scheduling.log # Log de execuções de agendamento
Nota: Lembre-se de sempre fazer backup de sua configuração antes de fazer alterações e testar novas configurações em um ambiente que não seja de produção primeiro.
A ferramenta Procore Analytics Cloud Connect Access é uma interface de linha de comando (CLI) que ajuda a configurar e gerenciar transferências de dados do Procore para o Amazon S3 com Procore Analytics 2.0.
Consiste em dois componentes principais:
Execute o utilitário de configuração usando python user_exp.py.
Isso ajudará você a configurar o seguinte:
{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"Ponto de extremidade": "xxxxxx"
}
Você precisará fornecer os seguintes detalhes do S3:
A ferramenta oferece a capacidade de agendar a sincronização automática de dados.
Você também pode verificar o agendamento executando o comando do terminal
Para Linux e MacOs:
Para editar/excluir - edite o cron de agendamento usando:
''Bash
EDITOR=nano crontab -e
```
Para Windows:
Unset
├── requirements.txt # Dependências
├── user_exp.py # Utilitário de configuração
├── delta_share_to_s3.py # Script de sincronização de dados
├── config.yaml # Configuração gerada
├── config.share # Arquivo de configuração do Delta Share
├── procore_scheduling.log # Log de execuções de agendamento
Problemas e soluções comuns:
Obs.:
O Delta Sharing é um protocolo aberto para compartilhamento seguro de dados em tempo real, permitindo que as organizações compartilhem dados entre diferentes plataformas de computação. Este guia irá orientá-lo através do processo de conexão e acesso a dados por meio do Compartilhamento Delta.
O Delta Sharing Python Connector é uma biblioteca Python que implementa o Delta Sharing Protocol para ler tabelas de um servidor de Compartilhamento Delta. Você pode carregar tabelas compartilhadas como um DataFrame pandas ou como um DataFrame do Apache Spark se estiver executando no PySpark com o Apache Spark Connector instalado.
Unset
pip3 instalar delta-sharing
O conector acessa tabelas compartilhadas com base em arquivos de perfil, que são arquivos JSON que contêm o credenciais de um usuário para acessar um servidor de Compartilhamento Delta. Temos várias maneiras de começar:
Depois de salvar o arquivo de perfil, você pode usá-lo no conector para acessar tabelas compartilhadas.
importar delta_sharing
O Apache Spark Connector implementa o Protocolo de Compartilhamento Delta para ler tabelas compartilhadas de um Servidor de Compartilhamento Delta. Pode ser utilizado em SQL, Python, Java, Scala e R.
O conector carrega credenciais do usuário a partir de arquivos de perfil.
Você pode configurar o Apache Spark para carregar o conector de compartilhamento Delta nos dois seguintes
Maneiras:
Se você estiver usando o Databricks Runtime, poderá ignorar esta seção e seguir o documento Databricks Libraries para instalar o conector em seus clusters.
Para usar o conector de Compartilhamento Delta interativamente no shell Scala/Python do Spark, você pode iniciar os shells da seguinte maneira.
Concha PySpark
Unset
pyspark --pacotes io.delta:delta-sharing-spark_2.12:3.1.0
Concha Scala
Unset
bin/spark-shell --pacotes
io.delta:delta-compartilhamento-spark_2.12:3.1.0
Se você quiser construir um projeto Java/Scala usando o conector Delta Sharing do Maven Central Repository, você pode usar as seguintes coordenadas do Maven.
Você inclui o conector de compartilhamento delta em seu projeto Maven adicionando-o como uma dependência em seu arquivo POM. O conector de compartilhamento delta é compilado com o Scala 2.12.
<dependency>
<groupId>io.delta</groupId>
<artifactId>delta-sharing-spark_2.12</artifactId>
<version>3.1.0</version>
</dependency>