Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -14,8 +14,11 @@ st.title('Chat with Me')
|
|
14 |
# Model yükleme (burada dil modeli veya sohbet modeli olmalı)
|
15 |
model = load_model('text_classification_model.h5')
|
16 |
|
17 |
-
# Modelin
|
18 |
-
model_input_shape = model.layers[0].input_shape
|
|
|
|
|
|
|
19 |
|
20 |
# Tokenizer yükleme veya tanımlama
|
21 |
tokenizer = Tokenizer(num_words=10000) # num_words, kelime sayısı limitidir, modelinize göre ayarlayabilirsiniz
|
@@ -32,7 +35,7 @@ soru = st.text_input('Sor:')
|
|
32 |
def generate_response(input_text):
|
33 |
# Metni tokenize et ve sekanslara dönüştür
|
34 |
sequences = tokenizer.texts_to_sequences([input_text])
|
35 |
-
padded_sequences = pad_sequences(sequences, maxlen=
|
36 |
prediction = model.predict(padded_sequences)
|
37 |
response = "Bu bir örnek yanıttır." # Modelden gelen yanıtı buraya yazın
|
38 |
return response
|
|
|
14 |
# Model yükleme (burada dil modeli veya sohbet modeli olmalı)
|
15 |
model = load_model('text_classification_model.h5')
|
16 |
|
17 |
+
# Modelin giriş boyutunu öğrenme
|
18 |
+
model_input_shape = model.layers[0].input_shape
|
19 |
+
if isinstance(model_input_shape, list):
|
20 |
+
model_input_shape = model_input_shape[0]
|
21 |
+
input_length = model_input_shape[1]
|
22 |
|
23 |
# Tokenizer yükleme veya tanımlama
|
24 |
tokenizer = Tokenizer(num_words=10000) # num_words, kelime sayısı limitidir, modelinize göre ayarlayabilirsiniz
|
|
|
35 |
def generate_response(input_text):
|
36 |
# Metni tokenize et ve sekanslara dönüştür
|
37 |
sequences = tokenizer.texts_to_sequences([input_text])
|
38 |
+
padded_sequences = pad_sequences(sequences, maxlen=input_length) # maxlen, modelin beklediği giriş boyutuna göre ayarlanmalıdır
|
39 |
prediction = model.predict(padded_sequences)
|
40 |
response = "Bu bir örnek yanıttır." # Modelden gelen yanıtı buraya yazın
|
41 |
return response
|