yunuseduran commited on
Commit
ca87ee6
·
verified ·
1 Parent(s): 14e02dc

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +6 -3
app.py CHANGED
@@ -14,8 +14,11 @@ st.title('Chat with Me')
14
  # Model yükleme (burada dil modeli veya sohbet modeli olmalı)
15
  model = load_model('text_classification_model.h5')
16
 
17
- # Modelin beklediği giriş boyutunu öğrenme
18
- model_input_shape = model.layers[0].input_shape[1]
 
 
 
19
 
20
  # Tokenizer yükleme veya tanımlama
21
  tokenizer = Tokenizer(num_words=10000) # num_words, kelime sayısı limitidir, modelinize göre ayarlayabilirsiniz
@@ -32,7 +35,7 @@ soru = st.text_input('Sor:')
32
  def generate_response(input_text):
33
  # Metni tokenize et ve sekanslara dönüştür
34
  sequences = tokenizer.texts_to_sequences([input_text])
35
- padded_sequences = pad_sequences(sequences, maxlen=model_input_shape) # maxlen, modelin beklediği giriş boyutuna göre ayarlanmalıdır
36
  prediction = model.predict(padded_sequences)
37
  response = "Bu bir örnek yanıttır." # Modelden gelen yanıtı buraya yazın
38
  return response
 
14
  # Model yükleme (burada dil modeli veya sohbet modeli olmalı)
15
  model = load_model('text_classification_model.h5')
16
 
17
+ # Modelin giriş boyutunu öğrenme
18
+ model_input_shape = model.layers[0].input_shape
19
+ if isinstance(model_input_shape, list):
20
+ model_input_shape = model_input_shape[0]
21
+ input_length = model_input_shape[1]
22
 
23
  # Tokenizer yükleme veya tanımlama
24
  tokenizer = Tokenizer(num_words=10000) # num_words, kelime sayısı limitidir, modelinize göre ayarlayabilirsiniz
 
35
  def generate_response(input_text):
36
  # Metni tokenize et ve sekanslara dönüştür
37
  sequences = tokenizer.texts_to_sequences([input_text])
38
+ padded_sequences = pad_sequences(sequences, maxlen=input_length) # maxlen, modelin beklediği giriş boyutuna göre ayarlanmalıdır
39
  prediction = model.predict(padded_sequences)
40
  response = "Bu bir örnek yanıttır." # Modelden gelen yanıtı buraya yazın
41
  return response