import pandas as pd
import gradio as gr
from gradio import components
from gradio import Interface
import numpy as np
import statsmodels
import statsmodels.api as sm
from statsmodels.stats.stattools import jarque_bera
import plotly.express as px
import plotly.graph_objects as go
import matplotlib.pyplot as plt
import matplotlib.pyplot as plt_1
import seaborn as sns
import sklearn
from sklearn.preprocessing import MinMaxScaler
from sklearn.ensemble import ExtraTreesRegressor
#%matplotlib inline
"""
At the command line, only need to run once to install the package via pip:
$ pip install google-generativeai
"""
import google.generativeai as genai
genai.configure(api_key="AIzaSyCm57IpC9_TTL7U3m8wvje9_3qtfxAASgI")
# Set up the model
generation_config = {
"temperature": 0.9,
"top_p": 1,
"top_k": 1,
"max_output_tokens": 2048,
}
safety_settings = [
{
"category": "HARM_CATEGORY_HARASSMENT",
"threshold": "BLOCK_MEDIUM_AND_ABOVE"
},
{
"category": "HARM_CATEGORY_HATE_SPEECH",
"threshold": "BLOCK_MEDIUM_AND_ABOVE"
},
{
"category": "HARM_CATEGORY_SEXUALLY_EXPLICIT",
"threshold": "BLOCK_MEDIUM_AND_ABOVE"
},
{
"category": "HARM_CATEGORY_DANGEROUS_CONTENT",
"threshold": "BLOCK_MEDIUM_AND_ABOVE"
},
]
def generate_content_for_stat(model, stat_value, stat_name):
"""
Generates content for a given statistic value and its name.
:param model: The generative model instance.
:param stat_value: The value of the statistic, rounded to 8 decimal places.
:param stat_name: The name of the statistic (e.g., "Jarque Bera", "Valor-p", "Assimetria", "Curtose").
:return: The generated text content.
"""
prompt = f"O que significa o valor de {stat_value} para o {stat_name}?"
prompt_parts = ["input: f\"{}\"".format(prompt), "output: "]
response = model.generate_content(prompt_parts)
return response.text
# função para conversão da escala das variáveis:
def aplicar_operacao(df, scv, col_index):
if scv == 'x':
pass
elif scv == 'lnx':
df.iloc[:, col_index] = round(np.log(df.iloc[:, col_index]), 8)
elif scv == '1/x':
df.iloc[:, col_index] = round(1 / df.iloc[:, col_index], 8)
elif scv == 'x²':
df.iloc[:, col_index] = round(df.iloc[:, col_index] ** 2, 8)
elif scv == 'y':
pass
elif scv == 'lny':
df.iloc[:, col_index] = round(np.log(df.iloc[:, col_index]), 8)
elif scv == '1/y':
df.iloc[:, col_index] = round(1 / df.iloc[:, col_index], 8)
elif scv == 'y²':
df.iloc[:, col_index] = round(df.iloc[:, col_index] ** 2, 8)
# função para renomear as colunas com as escalas:
def renomeia_colunas(df_dados, posicao_coluna, scv):
if posicao_coluna < len(df_dados.columns):
old_column_name = df_dados.columns[posicao_coluna]
new_column_name = old_column_name # Inicializa com o mesmo nome da coluna original
if scv == 'x':
pass
elif scv == 'lnx':
new_column_name = 'ln(' + old_column_name + ')'
elif scv == '1/x':
new_column_name = '1/(' + old_column_name + ')'
elif scv == 'x²':
new_column_name = '(' + old_column_name + ')²'
if scv == 'y':
pass
elif scv == 'lny':
new_column_name = 'ln(' + old_column_name + ')'
elif scv == '1/y':
new_column_name = '1/(' + old_column_name + ')'
elif scv == 'y²':
new_column_name = '(' + old_column_name + ')²'
df_dados.rename(columns={old_column_name: new_column_name}, inplace=True)
# função para plotagem dos gráficos de dispersão:
def criar_grafico_dispersao(df, x_column, y_column, hover_name, trendline_color):
# Calculando a correlação entre as variáveis x e y
correlacao = df[x_column].corr(df[y_column])
# Criando o gráfico de dispersão com a linha de tendência
fig = px.scatter(df, x=x_column, y=y_column, hover_name=hover_name, trendline="ols", height=300)
# Definindo a cor de fundo e do papel
fig.update_layout(
plot_bgcolor='rgb(240, 240, 240)',
paper_bgcolor='rgb(240, 240, 240)',
)
# Definindo a cor dos pontos
fig.update_traces(marker=dict(color=trendline_color, size=5))
# Definindo a cor da linha de tendência
fig.update_traces(line=dict(color="black"))
# Adicionando o texto com a correlação na linha de tendência
fig.add_annotation(
x=df[x_column].max(),
y=df[y_column].max(),
text=f"Correlação: {correlacao:.2f}",
showarrow=False,
font=dict(color="black")
)
return fig
# função para a regressão linear
def avaliacao_imovel(planilha, v_d, scv_d,
v_1, scv_1, v_2, scv_2,
v_3, scv_3, v_4, scv_4,
v_5, scv_5, v_6, scv_6,
v_7, scv_7, v_8, scv_8,
v_9, scv_9, v_10, scv_10,
v_11, scv_11, v_12, scv_12,
v_13, scv_13, v_14, scv_14,
v_15, scv_15, v_16, scv_16,
linhas):
# ---------------------------------Planilha------------------------------#
# Carregando os dados
df_dados = pd.read_excel(planilha.name)
df_dados = df_dados.round(4)
# Convertendo os cabeçalhos para strings
df_dados.columns = [str(col) for col in df_dados.columns]
df_dados[df_dados.columns[1]] = df_dados[df_dados.columns[1]].astype(float)
df_dados[df_dados.columns[2]] = df_dados[df_dados.columns[2]].astype(float)
df_original = df_dados.copy()
# ---------------------------Nome das variáveis--------------------------#
# Obtenha os nomes das colunas, excluindo a primeira ou a segunda
if v_d == "Valor total":
nomes_colunas = df_original.drop(columns=[df_original.columns[0], df_original.columns[2]]).columns
else:
nomes_colunas = df_original.drop(columns=[df_original.columns[0], df_original.columns[1]]).columns
# Crie a lista de strings com os cabeçalhos formatados
colunas = [f'Var dependente = {nomes_colunas[0]}'] + [f'Var {i} = {coluna}' for i, coluna in enumerate(nomes_colunas[1:], start=1)]
#-----------------------------------Escalas------------------------------#
# dados
if v_d == "Valor total":
aplicar_operacao(df_dados, scv_d, 1)
else:
aplicar_operacao(df_dados, scv_d, 2)
aplicar_operacao(df_dados, scv_1, 3)
aplicar_operacao(df_dados, scv_2, 4)
aplicar_operacao(df_dados, scv_3, 5)
aplicar_operacao(df_dados, scv_4, 6)
aplicar_operacao(df_dados, scv_5, 7)
aplicar_operacao(df_dados, scv_6, 8)
aplicar_operacao(df_dados, scv_7, 9)
aplicar_operacao(df_dados, scv_8, 10)
aplicar_operacao(df_dados, scv_9, 11)
aplicar_operacao(df_dados, scv_10, 12)
aplicar_operacao(df_dados, scv_11, 13)
aplicar_operacao(df_dados, scv_12, 14)
aplicar_operacao(df_dados, scv_13, 15)
aplicar_operacao(df_dados, scv_14, 16)
aplicar_operacao(df_dados, scv_15, 17)
aplicar_operacao(df_dados, scv_16, 18)
#----------------------------Renomear colunas----------------------------#
#dados
if v_d == "Valor total":
renomeia_colunas(df_dados, 1, scv_d)
else:
renomeia_colunas(df_dados, 2, scv_d)
renomeia_colunas(df_dados, 3, scv_1)
renomeia_colunas(df_dados, 4, scv_2)
renomeia_colunas(df_dados, 5, scv_3)
renomeia_colunas(df_dados, 6, scv_4)
renomeia_colunas(df_dados, 7, scv_5)
renomeia_colunas(df_dados, 8, scv_6)
renomeia_colunas(df_dados, 9, scv_7)
renomeia_colunas(df_dados, 10, scv_8)
renomeia_colunas(df_dados, 11, scv_9)
renomeia_colunas(df_dados, 12, scv_10)
renomeia_colunas(df_dados, 13, scv_11)
renomeia_colunas(df_dados, 14, scv_12)
renomeia_colunas(df_dados, 15, scv_13)
renomeia_colunas(df_dados, 16, scv_14)
renomeia_colunas(df_dados, 17, scv_15)
renomeia_colunas(df_dados, 18, scv_16)
#----------------Manipulação das linhas (dados / outiliers----------------#
num_linhas = df_dados.shape[0]
linhas_selecionadas = [int(linha) - 1 for linha in linhas if int(linha) - 1 < num_linhas]
df_filtrado = df_dados.iloc[linhas_selecionadas]
df_outliers = df_dados.drop(linhas_selecionadas)
df_filtrado.sort_values(by=df_filtrado.columns[0], inplace=True)
# Contagem de linhas no DataFrame resultante
num_outliers = df_outliers.shape[0]
#----------------Manipulação das Colunas (variáveis)-----------------------#
# Variáveis independentes
X = pd.DataFrame()
# Iterar sobre as colunas do DataFrame df_filtrado
for i, col in enumerate(df_filtrado.columns):
# Verificar se a coluna atual deve ser adicionada com base na condição e se ela existe no DataFrame
if (i == 3 and v_1) or \
(i == 4 and v_2) or \
(i == 5 and v_3) or \
(i == 6 and v_4) or \
(i == 7 and v_5) or \
(i == 8 and v_6) or \
(i == 9 and v_7) or \
(i == 10 and v_8) or \
(i == 11 and v_9) or \
(i == 12 and v_10) or \
(i == 13 and v_11) or \
(i == 14 and v_12) or \
(i == 15 and v_13) or \
(i == 16 and v_14) or \
(i == 17 and v_15) or \
(i == 18 and v_16):
if i < len(df_filtrado.columns):
X[col] = df_filtrado.iloc[:, i]
#X.to_excel("X.xlsx", index=False) ---> Linha de verificação
#---------------------------Gráficos de dispersão--------------------------#
fig_v1 = None
fig_v2 = None
fig_v3 = None
fig_v4 = None
fig_v5 = None
fig_v6 = None
fig_v7 = None
fig_v8 = None
fig_v9 = None
fig_v10 = None
fig_v11 = None
fig_v12 = None
fig_v13 = None
fig_v14 = None
fig_v15 = None
fig_v16 = None
if v_1:
if v_d == "Valor total":
fig_v1 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[3], df_filtrado.columns[1], df_filtrado.columns[0], "orange")
else:
fig_v1 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[3], df_filtrado.columns[2], df_filtrado.columns[0], "orange")
if v_2:
if v_d == "Valor total":
fig_v2 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[4], df_filtrado.columns[1], df_filtrado.columns[0], "orange")
else:
fig_v2 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[4], df_filtrado.columns[2], df_filtrado.columns[0], "orange")
if v_3:
if v_d == "Valor total":
fig_v3 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[5], df_filtrado.columns[1], df_filtrado.columns[0], "orange")
else:
fig_v3 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[5], df_filtrado.columns[2], df_filtrado.columns[0], "orange")
if v_4:
if v_d == "Valor total":
fig_v4 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[6], df_filtrado.columns[1], df_filtrado.columns[0], "orange")
else:
fig_v4 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[6], df_filtrado.columns[2], df_filtrado.columns[0], "orange")
if v_5:
if v_d == "Valor total":
fig_v5 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[7], df_filtrado.columns[1], df_filtrado.columns[0], "orange")
else:
fig_v5 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[7], df_filtrado.columns[2], df_filtrado.columns[0], "orange")
if v_6:
if v_d == "Valor total":
fig_v6 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[8], df_filtrado.columns[1], df_filtrado.columns[0], "orange")
else:
fig_v6 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[8], df_filtrado.columns[2], df_filtrado.columns[0], "orange")
if v_7:
if v_d == "Valor total":
fig_v7 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[9], df_filtrado.columns[1], df_filtrado.columns[0], "orange")
else:
fig_v7 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[9], df_filtrado.columns[2], df_filtrado.columns[0], "orange")
if v_8:
if v_d == "Valor total":
fig_v8 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[10], df_filtrado.columns[1], df_filtrado.columns[0], "orange")
else:
fig_v8 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[10], df_filtrado.columns[2], df_filtrado.columns[0], "orange")
if v_9:
if v_d == "Valor total":
fig_v9 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[11], df_filtrado.columns[1], df_filtrado.columns[0], "orange")
else:
fig_v9 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[11], df_filtrado.columns[2], df_filtrado.columns[0], "orange")
if v_10:
if v_d == "Valor total":
fig_v10 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[12], df_filtrado.columns[1], df_filtrado.columns[0], "orange")
else:
fig_v10 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[12], df_filtrado.columns[2], df_filtrado.columns[0], "orange")
if v_11:
if v_d == "Valor total":
fig_v11 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[13], df_filtrado.columns[1], df_filtrado.columns[0], "orange")
else:
fig_v11 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[13], df_filtrado.columns[2], df_filtrado.columns[0], "orange")
if v_12:
if v_d == "Valor total":
fig_v12 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[14], df_filtrado.columns[1], df_filtrado.columns[0], "orange")
else:
fig_v12 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[14], df_filtrado.columns[2], df_filtrado.columns[0], "orange")
if v_13:
if v_d == "Valor total":
fig_v13 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[15], df_filtrado.columns[1], df_filtrado.columns[0], "orange")
else:
fig_v13 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[15], df_filtrado.columns[2], df_filtrado.columns[0], "orange")
if v_14:
if v_d == "Valor total":
fig_v14 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[16], df_filtrado.columns[1], df_filtrado.columns[0], "orange")
else:
fig_v14 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[16], df_filtrado.columns[2], df_filtrado.columns[0], "orange")
if v_15:
if v_d == "Valor total":
fig_v15 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[17], df_filtrado.columns[1], df_filtrado.columns[0], "orange")
else:
fig_v15 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[17], df_filtrado.columns[2], df_filtrado.columns[0], "orange")
if v_16:
if v_d == "Valor total":
fig_v16 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[18], df_filtrado.columns[1], df_filtrado.columns[0], "orange")
else:
fig_v16 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[18], df_filtrado.columns[2], df_filtrado.columns[0], "orange")
#--------------------------Regressão Linerar------------------------------#
# Variável dependente
if v_d == "Valor total":
y = df_filtrado.iloc[:, 1:2]
else:
y = df_filtrado.iloc[:, 2:3]
#y.to_excel("y.xlsx", index=False) ---> Linha de verificação
#---------------------ExtraTreesRegressor--------------------#
scaler_x = MinMaxScaler()
scaler_y = MinMaxScaler()
input_scaler = scaler_x.fit(X)
output_scaler = scaler_y.fit(y)
x_norm = input_scaler.transform(X)
y_norm = output_scaler.transform(np.array(y).reshape(-1, 1))
x_norm = pd.DataFrame(x_norm, columns=X.columns)
new_y = np.ravel(y_norm)
model = ExtraTreesRegressor()
model.fit(x_norm,new_y)
feature_importances = model.feature_importances_
# Criando o gráfico de influência das variáveis
#feat_importances = pd.Series(model.feature_importances_, index=X.columns)
#feat_importances.nlargest(16).plot(kind='barh', color = 'orange')
#plt_1.title('Influência das Variáveis')
#plt_1.xlabel('Importância')
#plt_1.ylabel('Variáveis')
#plt_1.gca().set_facecolor('#f0f0f5')
#plt_1.tight_layout()
#plt_1.grid(True)
# Salvar o gráfico como imagem
#plt_1.savefig('influencia_variaveis.png')
#----------------------------Modelo----------------------------#
# Adicionando uma constante às variáveis independentes (intercepto)
X = sm.add_constant(X)
# Inicializando o modelo de regressão linear
modelo = sm.OLS(y, X)
# Ajustando o modelo aos dados
resultado = modelo.fit()
# Calculando os resíduos do modelo
residuos = resultado.resid
# Calculando Desvio Padrão dos Resíduos
#desvio_padrao_residuos = round(np.std(resultado.resid), 8)
desvio_padrao_residuos = round(np.std(residuos), 8)
# Calculando Estatística F
estatistica_F = round(resultado.fvalue, 8)
# Obtendo Nível de Significância do Modelo
nivel_significancia = round(resultado.f_pvalue, 8)
# Calculando R²
r_squared = round(resultado.rsquared, 8)
# Calculando R² ajustado
r_squared_adjusted = round(resultado.rsquared_adj, 8)
# Obtendo Número de Observações
num_observacoes = int(round(resultado.nobs, 0))
# Calculando Coeficiente de Correlação
coef_correlacao = round(np.sqrt(r_squared), 8)
# Calculando o teste de Jarque-Bera para os resíduos
jarque_bera_test, p_value, skewness, kurtosis = jarque_bera(residuos)
# Formatando os resultados com 4 casas decimais
jarque_bera_test = round(jarque_bera_test, 8)
p_value = round(p_value, 8)
skewness = round(skewness, 8)
kurtosis = round(kurtosis, 8)
model = genai.GenerativeModel(model_name="gemini-pro", generation_config=generation_config, safety_settings=safety_settings)
jarque_bera_test_text = generate_content_for_stat(model, round(jarque_bera_test, 8), "teste de Jarque Bera")
p_value_text = generate_content_for_stat(model, round(p_value, 8), "Valor-p")
skewness_text = generate_content_for_stat(model, round(skewness, 8), "Assimetria")
kurtosis_text = generate_content_for_stat(model, round(kurtosis, 8), "Curtose")
# Extrair os coeficientes da regressão
coeficientes = resultado.params
# Calcular a distância de Cook
distancia_cook = resultado.get_influence().cooks_distance[0]
# String com os resultados
resultados_gerais = f"""
Desvio Padrão: {desvio_padrao_residuos}
Estatística F: {estatistica_F}
Nível de Significância do Modelo: {nivel_significancia}
R²: {r_squared}
R² ajustado: {r_squared_adjusted}
Correlação: {coef_correlacao}
Número de observações: {num_observacoes}
Número de dados não utilizados: {num_outliers}
Teste de Jarque-Bera:
- Estatística do teste: {jarque_bera_test}
- Valor-p: {p_value}
- Assimetria (Skewness): {skewness}
- Curtose (Kurtosis): {kurtosis}
"""
# Comentários sobre os resultados gerais
comentarios = (
f"""#
Comentários:
- Jarque-Bera: {jarque_bera_test_text}
- Valor-p: {p_value_text}
- Assimetria (Skewness): {skewness_text}
- Curtose (Kurtosis): {kurtosis_text}
""")
# Equação do modelo
if v_d == "Valor total":
equacao_modelo = df_filtrado.columns[1] + '='
else:
equacao_modelo = df_filtrado.columns[2] + '='
# Iterar sobre os coeficientes estimados
for nome_coluna, coeficiente in zip(X.columns, coeficientes):
# Se o nome da coluna for 'const', adicione apenas o coeficiente
if nome_coluna == 'const':
equacao_modelo += f" {coeficiente:.8f} +"
else:
# Adicionar o termo à equação do modelo
equacao_modelo += f" {coeficiente:.8f} * {nome_coluna} +"
# Remover o último sinal de adição
equacao_modelo = equacao_modelo[:-1]
# Exibindo estatísticas do modelo
resultado_summary = resultado.summary()
resultado_html = resultado.summary().tables[1].as_html()
# Obtenha as estatísticas do modelo em formato de DataFrame
#resultado_summary_df = pd.DataFrame(resultado_summary.tables[1])
#----------------------------df_final (regressão)----------------------------#
# Adicionando a primeira coluna de df_filtrado ao início de df_final
ordem = df_filtrado[[df_filtrado.columns[0]]].copy()
df_final = pd.concat([ordem, y, X], axis=1)
df_final = df_final.drop(columns=['const'])
#--------------------df_final (adiciona o erro_padronizado)------------------#
# Calculando o erro padronizado
erro_padronizado = round(residuos / desvio_padrao_residuos, 5)
# Adicionando a coluna de erro padronizado ao df_final
df_final['Erro Padronizado'] = erro_padronizado
#-------------------df_maiores_que_2 (possíveis outliers)--------------------#
# Criar DataFrame apenas com os dados cujo erro padronizado é maior que 2
df_maiores_que_2 = df_final[abs(df_final['Erro Padronizado']) > 2]
df_maiores_que_2['Erro Abs'] = abs(df_maiores_que_2['Erro Padronizado'])
# Listagem de pontos com resíduos > 2
Listagem_df_maiores_que_2 = df_maiores_que_2.iloc[:, 0].tolist()
#------------df_correl (Valores Ajustados x Preços Observados)---------------#
# Obtendo os valores previstos
# Dados
valores_previstos = resultado.predict(X)
# Adicionando os valores previstos como uma nova coluna ao df_final
df_final['Valores Ajustados'] = round(valores_previstos, 8)
# Criando uma dataframe para os Valores Ajustados x Preços Observados
if v_d == "Valor total":
df_correl = df_final[[df_filtrado.columns[0], df_filtrado.columns[1], 'Valores Ajustados']]
df_correl = df_correl.rename(columns={df_filtrado.columns[1]: 'Preços Observados'})
else:
df_correl = df_final[[df_filtrado.columns[0], df_filtrado.columns[2], 'Valores Ajustados']]
df_correl = df_correl.rename(columns={df_filtrado.columns[2]: 'Preços Observados'})
df_correl_grafico = df_correl.copy()
# Desfazendo a conversão da escala
if scv_d == 'lny':
df_correl['Valores Ajustados'] = round(np.exp(df_correl['Valores Ajustados']), 8)
df_correl['Preços Observados'] = round(np.exp(df_correl['Preços Observados']), 8)
elif scv_d == '1/y':
df_correl['Valores Ajustados'] = round(1 / df_correl['Valores Ajustados'], 8)
df_correl['Preços Observados'] = round(1 / df_correl['Preços Observados'], 8)
elif scv_d == 'y²':
df_correl['Valores Ajustados'] = round(np.sqrt(df_correl['Valores Ajustados']), 8)
df_correl['Preços Observados'] = round(np.sqrt(df_correl['Preços Observados']), 8)
else:
pass # Nenhuma transformação é necessária
df_correl['Diferença %'] = round(((df_correl['Valores Ajustados']/df_correl['Preços Observados'])-1)*100, 8)
#----------------------------------Avaliação--------------------------------#
try:
# Carregando o(s) avaliando(s)
df_aval = pd.read_excel(planilha.name, 'avaliando')
df_aval_original = df_aval.copy()
# avaliando(s)
if v_d == "Valor total":
aplicar_operacao(df_aval, scv_d, 1)
else:
aplicar_operacao(df_aval, scv_d, 2)
aplicar_operacao(df_aval, scv_1, 3)
aplicar_operacao(df_aval, scv_2, 4)
aplicar_operacao(df_aval, scv_3, 5)
aplicar_operacao(df_aval, scv_4, 6)
aplicar_operacao(df_aval, scv_5, 7)
aplicar_operacao(df_aval, scv_6, 8)
aplicar_operacao(df_aval, scv_7, 9)
aplicar_operacao(df_aval, scv_8, 10)
aplicar_operacao(df_aval, scv_9, 11)
aplicar_operacao(df_aval, scv_10, 12)
aplicar_operacao(df_aval, scv_11, 13)
aplicar_operacao(df_aval, scv_12, 14)
aplicar_operacao(df_aval, scv_13, 15)
aplicar_operacao(df_aval, scv_14, 16)
aplicar_operacao(df_aval, scv_15, 17)
aplicar_operacao(df_aval, scv_16, 18)
X_aval = pd.DataFrame()
# Iterar sobre as colunas do DataFrame df_filtrado
for i, col in enumerate(df_aval.columns):
# Verificar se a coluna atual deve ser adicionada com base na condição e se ela existe no DataFrame
if (i == 3 and v_1) or \
(i == 4 and v_2) or \
(i == 5 and v_3) or \
(i == 6 and v_4) or \
(i == 7 and v_5) or \
(i == 8 and v_6) or \
(i == 9 and v_7) or \
(i == 10 and v_8) or \
(i == 11 and v_9) or \
(i == 12 and v_10) or \
(i == 13 and v_11) or \
(i == 14 and v_12) or \
(i == 15 and v_13) or \
(i == 16 and v_14) or \
(i == 17 and v_15) or \
(i == 18 and v_16):
if i < len(df_aval.columns):
X_aval[col] = df_aval.iloc[:, i]
X_aval.insert(0, 'const', 1)
# Avaliando(s)
valores_previstos_aval = resultado.predict(X_aval)
df_aval_original['VALOR'] = round(valores_previstos_aval, 8)
if scv_d == 'lny':
df_aval_original['VALOR'] = round(np.exp(df_aval_original['VALOR']), 8)
elif scv_d == '1/y':
df_aval_original['VALOR'] = round(1 / df_aval_original['VALOR'], 8)
elif scv_d == 'y²':
df_aval_original['VALOR'] = round(np.sqrt(df_aval_original['VALOR']), 8)
else:
pass # Nenhuma transformação é necessária
# Campo de arbítrio
df_aval_original['LI_CA'] = round((df_aval_original['VALOR']*0.85), 2)
df_aval_original['LS_CA'] = round((df_aval_original['VALOR']*1.15), 2)
# Intervalo de Confiança de 80%
# Calcular os intervalos de confiança para a média prevista
intervalo_confianca = resultado.get_prediction(X_aval).summary_frame(alpha=0.2)
# Extrair os limites inferior e superior do intervalo de confiança
limite_inferior = intervalo_confianca['mean_ci_lower']
limite_superior = intervalo_confianca['mean_ci_upper']
# Adicionar as colunas ao DataFrame df_aval_original
df_aval_original['LI_IC'] = limite_inferior.values
df_aval_original['LS_IC'] = limite_superior.values
if scv_d == 'lny':
df_aval_original['LI_IC'] = round(np.exp(df_aval_original['LI_IC']), 2)
df_aval_original['LS_IC'] = round(np.exp(df_aval_original['LS_IC']), 2)
elif scv_d == '1/y':
df_aval_original['LI_IC'] = round(1 / df_aval_original['LI_IC'], 2)
df_aval_original['LS_IC'] = round(1 / df_aval_original['LS_IC'], 2)
elif scv_d == 'y²':
df_aval_original['LI_IC'] = round(np.sqrt(df_aval_original['LI_IC']), 2)
df_aval_original['LS_IC'] = round(np.sqrt(df_aval_original['LS_IC']), 2)
else:
pass # Nenhuma transformação é necessária
df_aval_original['LI_IC_%'] = round(((df_aval_original['VALOR']-df_aval_original['LI_IC'])/df_aval_original['VALOR'])*100, 2)
df_aval_original['LS_IC_%'] = round(((df_aval_original['LS_IC']-df_aval_original['VALOR'])/df_aval_original['VALOR'])*100, 2)
df_aval_original['TOTAL_IC_%'] = round(df_aval_original['LI_IC_%'] + df_aval_original['LS_IC_%'], 2)
# Aplicação das condições para determinar 'PRECISÃO'
df_aval_original['PRECISÃO'] = "" # Inicializa a coluna 'PRECISÃO'
df_aval_original.loc[df_aval_original['TOTAL_IC_%'] <= 30, 'PRECISÃO'] = "Grau III"
df_aval_original.loc[(df_aval_original['TOTAL_IC_%'] > 30) & (df_aval_original['TOTAL_IC_%'] <= 40), 'PRECISÃO'] = "Grau II"
df_aval_original.loc[(df_aval_original['TOTAL_IC_%'] > 40) & (df_aval_original['TOTAL_IC_%'] <= 50), 'PRECISÃO'] = "Grau I"
df_aval_original.loc[df_aval_original['TOTAL_IC_%'] > 50, 'PRECISÃO'] = "Fora dos critérios"
# Retirando as colunas valor total e valor unitário
df_aval_original = df_aval_original.drop(df_aval_original.columns[[1, 2]], axis=1)
# Salve o DataFrame 'result' em uma planilha
df_aval_original.to_excel("planilha_aval.xlsx", index=False)
except:
# Se a aba não existir, crie um DataFrame vazio
df_aval_original = pd.DataFrame()
# Salve o DataFrame 'result' em uma planilha
df_aval_original.to_excel("planilha_aval.xlsx", index=False)
#-----------------------------------------------Gráficos-------------------------------------------------#
# Criando subplots
fig, (ax1, ax2, ax3, ax4) = plt.subplots(4, 1, figsize=(10, 16))
# Gráfico dos resíduos padronizados
ax1.scatter(df_final['Valores Ajustados'], erro_padronizado, color='orange', alpha=0.6)
ax1.axhline(y=0, color='black', linestyle='--', linewidth=1) # Linha zero
ax1.axhline(y=2, color='red', linestyle='-', linewidth=1) # Linhas vermelhas em ±2
ax1.axhline(y=-2, color='red', linestyle='-', linewidth=1)
ax1.set_title('Gráfico de Resíduos Padronizados')
ax1.set_xlabel('Valores Ajustados')
ax1.set_ylabel('Resíduos Padronizados')
ax1.grid(True)
# Adicionando rótulos aos pontos com resíduos padronizados > 2
# for i, txt in enumerate(df_final.iloc[:, 0]):
# if abs(erro_padronizado[i]) > 2:
# ax1.annotate(txt, (df_final['Valores Ajustados'][i], erro_padronizado[i]), color='black')
# Histograma dos resíduos padronizados
sns.histplot(erro_padronizado, kde=True, color='orange', alpha=0.6, ax=ax2)
ax2.set_title('Histograma dos Resíduos Padronizados')
ax2.set_xlabel('Resíduos Padronizados')
ax2.set_ylabel('Frequência')
ax2.grid(True)
# Gráfico da distância de Cook
ax3.plot(distancia_cook, marker='o', linestyle='None', color='orange')
ax3.axhline(y=1, color='red', linestyle='--', linewidth=1)
ax3.set_title('Gráfico da Distância de Cook')
ax3.set_xlabel('Número da Observação')
ax3.set_ylabel('Distância de Cook')
ax3.grid(True)
# Adicionando rótulos aos pontos
for i, txt in enumerate(df_final.iloc[:, 0]):
ax3.annotate(txt, (i, distancia_cook[i]))
# Gráfico Valores Ajustados vs Preços Observados
# Extrair os valores dos dados
x_values = df_correl_grafico['Preços Observados']
y_values = df_correl_grafico['Valores Ajustados']
# Calcular a linha de tendência (regressão linear)
slope, intercept = np.polyfit(x_values, y_values, 1)
# Plotar o gráfico de dispersão no eixo ax4
ax4.scatter(x_values, y_values, color='black')
# Plotar a linha de tendência no eixo ax4
ax4.plot(x_values, slope * x_values + intercept, color='orange', linestyle='--', linewidth=2)
# Adicionar título e rótulos dos eixos em ax4
ax4.set_title('Valores Ajustados vs Preços Observados')
ax4.set_xlabel('Preços Observados')
ax4.set_ylabel('Valores Ajustados')
ax4.grid(True)
# Ajustando a posição dos subplots
plt.tight_layout()
# Exibindo os subplots
plt.show()
#----------------------------------------------Pontos Influenciantes-------------------------------------------------#
# Listagem de pontos discrepantes
limite_cook = 4 / (len(df_final) - len(resultado.params))
pontos_discrepantes = []
for i, cook_dist in enumerate(distancia_cook):
if cook_dist > limite_cook:
pontos_discrepantes.append(df_final.iloc[i, 0]) # Usando a primeira coluna como rótulo
# Listagem de pontos influentes
limite_cook = 1
pontos_influentes = []
for i, cook_dist in enumerate(distancia_cook):
if cook_dist > limite_cook:
pontos_influentes.append(df_final.iloc[i, 0]) # Usando a primeira coluna como rótulo
#---------------------------------------Outputs----------------------------------#
return (
df_original,
colunas,
feature_importances,
resultados_gerais,
comentarios,
equacao_modelo,
resultado_html,
df_final,
Listagem_df_maiores_que_2,
pontos_influentes,
df_maiores_que_2,
df_outliers,
df_correl,
fig_v1,
fig_v2,
fig_v3,
fig_v4,
fig_v5,
fig_v6,
fig_v7,
fig_v8,
fig_v9,
fig_v10,
fig_v11,
fig_v12,
fig_v13,
fig_v14,
fig_v15,
fig_v16,
#'influencia_variaveis.png',
plt,
df_aval_original,
'planilha_aval.xlsx',
#X_aval,
#X,
#y,
#'X.xlsx',
#'y.xlsx',
)
#--------------------------------------Interface---------------------------------#
numeros = [str(i) for i in range(0, 501)]
with gr.Blocks(theme=gr.themes.Default(primary_hue="yellow", secondary_hue="yellow",)) as interface:
gr.Markdown(f"""
aval
ia
.se
Regressão Linear
Aplicativo MCDDM com tratamento científico / Você pode fazer um download de uma planilha de exemplo aqui
""")
with gr.Row():
with gr.Column():
with gr.Row():
#inp_1 = gr.File(label="Upload planilha", type="file", scale=2, height=100)
inp_1 = gr.File(label="Upload planilha", type="filepath", scale=2, height=100)
with gr.Row():
inp_2 = gr.Dropdown(['Valor total', 'Valor unitário',], label="VARIÁVEL DEPENDENTE", value='Valor unitário')
inp_3 = gr.Dropdown(['y', 'lny', '1/y', 'y²'], label="Escala VARIÁVEL DEPENDENTE", value='y')
button_1 = gr.Button("Calcular")
with gr.Row():
inp_4 = gr.Checkbox(value=True, label="Var 1", scale=1)
inp_5 = gr.Dropdown(['x', 'lnx', '1/x', 'x²'], show_label=False, value='x', scale=1)
inp_6 = gr.Checkbox(value=True, label="Var 2", scale=1)
inp_7 = gr.Dropdown(['x', 'lnx', '1/x', 'x²'], show_label=False, value='x', scale=1)
with gr.Row():
inp_8 = gr.Checkbox(value=False, label="Var 3", scale=1)
inp_9 = gr.Dropdown(['x', 'lnx', '1/x', 'x²'], show_label=False, value='x', scale=1)
inp_10 = gr.Checkbox(value=False, label="Var 4", scale=1)
inp_11 = gr.Dropdown(['x', 'lnx', '1/x', 'x²'], show_label=False, value='x', scale=1)
with gr.Row():
inp_12 = gr.Checkbox(value=False, label="Var 5", scale=1)
inp_13 = gr.Dropdown(['x', 'lnx', '1/x', 'x²'], show_label=False, value='x', scale=1)
inp_14 = gr.Checkbox(value=False, label="Var 6", scale=1)
inp_15 = gr.Dropdown(['x', 'lnx', '1/x', 'x²'], show_label=False, value='x', scale=1)
with gr.Row():
inp_16 = gr.Checkbox(value=False, label="Var 7", scale=1)
inp_17 = gr.Dropdown(['x', 'lnx', '1/x', 'x²'], show_label=False, value='x', scale=1)
inp_18 = gr.Checkbox(value=False, label="Var 8", scale=1)
inp_19 = gr.Dropdown(['x', 'lnx', '1/x', 'x²'], show_label=False, value='x', scale=1)
with gr.Row():
inp_20 = gr.Checkbox(value=False, label="Var 9", scale=1)
inp_21 = gr.Dropdown(['x', 'lnx', '1/x', 'x²'], show_label=False, value='x', scale=1)
inp_22 = gr.Checkbox(value=False, label="Var 10", scale=1)
inp_23 = gr.Dropdown(['x', 'lnx', '1/x', 'x²'], show_label=False, value='x', scale=1)
with gr.Row():
inp_24 = gr.Checkbox(value=False, label="Var 11", scale=1)
inp_25 = gr.Dropdown(['x', 'lnx', '1/x', 'x²'], show_label=False, value='x', scale=1)
inp_26 = gr.Checkbox(value=False, label="Var 12", scale=1)
inp_27 = gr.Dropdown(['x', 'lnx', '1/x', 'x²'], show_label=False, value='x', scale=1)
with gr.Row():
inp_28 = gr.Checkbox(value=False, label="Var 13", scale=1)
inp_29 = gr.Dropdown(['x', 'lnx', '1/x', 'x²'], show_label=False, value='x', scale=1)
inp_30 = gr.Checkbox(value=False, label="Var 14", scale=1)
inp_31 = gr.Dropdown(['x', 'lnx', '1/x', 'x²'], show_label=False, value='x', scale=1)
with gr.Row():
inp_32 = gr.Checkbox(value=False, label="Var 15", scale=1)
inp_33 = gr.Dropdown(['x', 'lnx', '1/x', 'x²'], show_label=False, value='x', scale=1)
inp_34 = gr.Checkbox(value=False, label="Var 16", scale=1)
inp_35 = gr.Dropdown(['x', 'lnx', '1/x', 'x²'], show_label=False, value='x', scale=1)
button_2 = gr.Button("Calcular")
inp_36 = gr.CheckboxGroup(numeros, value=numeros[1:501], label="Selecionar dados", type="index")
button_3 = gr.Button("Calcular")
with gr.Column():
out_1 = gr.Dataframe(label="Planilha de dados original", height=300)
out_2 = gr.Textbox(label="Colunas", scale=1)
out_3 = gr.Textbox(label="Importância das Variáveis (ExtraTreesRegressor()) ", scale=1)
with gr.Row():
out_4 = gr.Textbox(label="Resultados Gerais do Modelo", scale=1)
out_6 = gr.Textbox(label="Equação do Modelo")
out_5 = gr.HTML(label="Comentários sobre os Resultados")
out_7 = gr.HTML(label="Resultados por variável")
out_8 = gr.Dataframe(label="Planilha Regressão Linear (Variáveis e escalas escolhidas e sem outliers)", height=300)
out_9 = gr.Textbox(label="Listagem de dados com resíduos padronizados > 2")
out_10 = gr.Textbox(label="Listagem de pontos Influenciantes (Distância de Cook > 1)")
out_11 = gr.Dataframe(label="Resíduos Padronizados > 2", height=300)
out_12 = gr.Dataframe(label="Outliers (retirados)", height=300)
out_13 = gr.Dataframe(label="Valores Ajustados x Preços Observados", height=300)
button_4 = gr.Button("Calcular")
out_14 = gr.Plot(label="Gráfico Dispersão var 1")
out_15 = gr.Plot(label="Gráfico Dispersão var 2")
out_16 = gr.Plot(label="Gráfico Dispersão var 3")
out_17 = gr.Plot(label="Gráfico Dispersão var 4")
out_18 = gr.Plot(label="Gráfico Dispersão var 5")
out_19 = gr.Plot(label="Gráfico Dispersão var 6")
out_20 = gr.Plot(label="Gráfico Dispersão var 7")
out_21 = gr.Plot(label="Gráfico Dispersão var 8")
out_22 = gr.Plot(label="Gráfico Dispersão var 9")
out_23 = gr.Plot(label="Gráfico Dispersão var 10")
out_24 = gr.Plot(label="Gráfico Dispersão var 11")
out_25 = gr.Plot(label="Gráfico Dispersão var 12")
out_26 = gr.Plot(label="Gráfico Dispersão var 13")
out_27 = gr.Plot(label="Gráfico Dispersão var 14")
out_28 = gr.Plot(label="Gráfico Dispersão var 15")
out_29 = gr.Plot(label="Gráfico Dispersão var 16")
#out_30 = gr.Image(label='Gráfico de Influência das Variáveis')
out_31 = gr.Plot(label="Análise Gráfica do Modelo de Regressão")
out_32 = gr.Dataframe(label="Avaliação", height=300)
out_33 = gr.components.File(label="Resultado da Avaliação")
# outputs de verificação
#out_off_1 = gr.Dataframe(label="X_aval", height=300)
#out_off_2 = gr.Dataframe(label="X", height=300)
#out_off_3 = gr.Dataframe(label="y", height=300)
#out_off_4 = gr.components.File(label="X")
#out_off_5 = gr.components.File(label="y")
inputs = [
inp_1, inp_2, inp_3, inp_4, inp_5, inp_6, inp_7, inp_8, inp_9, inp_10,
inp_11, inp_12, inp_13, inp_14, inp_15, inp_16, inp_17, inp_18, inp_19, inp_20,
inp_21, inp_22, inp_23, inp_24, inp_25, inp_26, inp_27, inp_28, inp_29, inp_30,
inp_31, inp_32, inp_33, inp_34, inp_35, inp_36
]
outputs = [
out_1, out_2, out_3, out_4, out_5, out_6, out_7, out_8, out_9, out_10,
out_11, out_12, out_13, out_14, out_15, out_16, out_17, out_18, out_19, out_20,
out_21, out_22, out_23, out_24, out_25, out_26, out_27, out_28, out_29,
out_31, out_32, out_33
] #[out_off_1, out_off_2, out_off_3, out_off_4, out_off_5] , out_28
button_1.click(avaliacao_imovel, inputs=inputs, outputs=outputs)
button_2.click(avaliacao_imovel, inputs=inputs, outputs=outputs)
button_3.click(avaliacao_imovel, inputs=inputs, outputs=outputs)
button_4.click(avaliacao_imovel, inputs=inputs, outputs=outputs)
if __name__ == "__main__":
interface.launch(debug=True)