yunuseduran commited on
Commit
3fba009
·
verified ·
1 Parent(s): 191985e

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +10 -4
app.py CHANGED
@@ -1,5 +1,7 @@
1
  import streamlit as st
2
  from tensorflow.keras.models import load_model
 
 
3
  import numpy as np
4
  from transformers import logging
5
 
@@ -12,6 +14,10 @@ st.title('Chat with Me')
12
  # Model yükleme (burada dil modeli veya sohbet modeli olmalı)
13
  model = load_model('text_classification_model.h5')
14
 
 
 
 
 
15
  # Chat history
16
  if 'chat_history' not in st.session_state:
17
  st.session_state.chat_history = []
@@ -21,10 +27,10 @@ soru = st.text_input('Sor:')
21
 
22
  # Yanıt üretme fonksiyonu (modelinize göre bu kısım değişebilir)
23
  def generate_response(input_text):
24
- # Örneğin, modelinize uygun şekilde giriş ve çıkışları dönüştürün
25
- # Bu basit bir örnek, modelinizin gereksinimlerine göre düzenlemelisiniz
26
- input_vector = np.array([input_text]) # Modelin beklediği giriş formatı
27
- prediction = model.predict(input_vector)
28
  response = "Bu bir örnek yanıttır." # Modelden gelen yanıtı buraya yazın
29
  return response
30
 
 
1
  import streamlit as st
2
  from tensorflow.keras.models import load_model
3
+ from tensorflow.keras.preprocessing.text import Tokenizer
4
+ from tensorflow.keras.preprocessing.sequence import pad_sequences
5
  import numpy as np
6
  from transformers import logging
7
 
 
14
  # Model yükleme (burada dil modeli veya sohbet modeli olmalı)
15
  model = load_model('text_classification_model.h5')
16
 
17
+ # Tokenizer yükleme veya tanımlama
18
+ tokenizer = Tokenizer(num_words=10000) # num_words, kelime sayısı limitidir, modelinize göre ayarlayabilirsiniz
19
+ tokenizer.fit_on_texts(['örnek metin']) # Tokenizer'ı eğitmek için örnek bir metin kullanabilirsiniz
20
+
21
  # Chat history
22
  if 'chat_history' not in st.session_state:
23
  st.session_state.chat_history = []
 
27
 
28
  # Yanıt üretme fonksiyonu (modelinize göre bu kısım değişebilir)
29
  def generate_response(input_text):
30
+ # Metni tokenize et ve sekanslara dönüştür
31
+ sequences = tokenizer.texts_to_sequences([input_text])
32
+ padded_sequences = pad_sequences(sequences, maxlen=100) # maxlen, modelin beklediği giriş boyutuna göre ayarlanmalıdır
33
+ prediction = model.predict(padded_sequences)
34
  response = "Bu bir örnek yanıttır." # Modelden gelen yanıtı buraya yazın
35
  return response
36