yunuseduran commited on
Commit
14e02dc
·
verified ·
1 Parent(s): 3fba009

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +4 -1
app.py CHANGED
@@ -14,6 +14,9 @@ st.title('Chat with Me')
14
  # Model yükleme (burada dil modeli veya sohbet modeli olmalı)
15
  model = load_model('text_classification_model.h5')
16
 
 
 
 
17
  # Tokenizer yükleme veya tanımlama
18
  tokenizer = Tokenizer(num_words=10000) # num_words, kelime sayısı limitidir, modelinize göre ayarlayabilirsiniz
19
  tokenizer.fit_on_texts(['örnek metin']) # Tokenizer'ı eğitmek için örnek bir metin kullanabilirsiniz
@@ -29,7 +32,7 @@ soru = st.text_input('Sor:')
29
  def generate_response(input_text):
30
  # Metni tokenize et ve sekanslara dönüştür
31
  sequences = tokenizer.texts_to_sequences([input_text])
32
- padded_sequences = pad_sequences(sequences, maxlen=100) # maxlen, modelin beklediği giriş boyutuna göre ayarlanmalıdır
33
  prediction = model.predict(padded_sequences)
34
  response = "Bu bir örnek yanıttır." # Modelden gelen yanıtı buraya yazın
35
  return response
 
14
  # Model yükleme (burada dil modeli veya sohbet modeli olmalı)
15
  model = load_model('text_classification_model.h5')
16
 
17
+ # Modelin beklediği giriş boyutunu öğrenme
18
+ model_input_shape = model.layers[0].input_shape[1]
19
+
20
  # Tokenizer yükleme veya tanımlama
21
  tokenizer = Tokenizer(num_words=10000) # num_words, kelime sayısı limitidir, modelinize göre ayarlayabilirsiniz
22
  tokenizer.fit_on_texts(['örnek metin']) # Tokenizer'ı eğitmek için örnek bir metin kullanabilirsiniz
 
32
  def generate_response(input_text):
33
  # Metni tokenize et ve sekanslara dönüştür
34
  sequences = tokenizer.texts_to_sequences([input_text])
35
+ padded_sequences = pad_sequences(sequences, maxlen=model_input_shape) # maxlen, modelin beklediği giriş boyutuna göre ayarlanmalıdır
36
  prediction = model.predict(padded_sequences)
37
  response = "Bu bir örnek yanıttır." # Modelden gelen yanıtı buraya yazın
38
  return response