Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -14,6 +14,9 @@ st.title('Chat with Me')
|
|
14 |
# Model yükleme (burada dil modeli veya sohbet modeli olmalı)
|
15 |
model = load_model('text_classification_model.h5')
|
16 |
|
|
|
|
|
|
|
17 |
# Tokenizer yükleme veya tanımlama
|
18 |
tokenizer = Tokenizer(num_words=10000) # num_words, kelime sayısı limitidir, modelinize göre ayarlayabilirsiniz
|
19 |
tokenizer.fit_on_texts(['örnek metin']) # Tokenizer'ı eğitmek için örnek bir metin kullanabilirsiniz
|
@@ -29,7 +32,7 @@ soru = st.text_input('Sor:')
|
|
29 |
def generate_response(input_text):
|
30 |
# Metni tokenize et ve sekanslara dönüştür
|
31 |
sequences = tokenizer.texts_to_sequences([input_text])
|
32 |
-
padded_sequences = pad_sequences(sequences, maxlen=
|
33 |
prediction = model.predict(padded_sequences)
|
34 |
response = "Bu bir örnek yanıttır." # Modelden gelen yanıtı buraya yazın
|
35 |
return response
|
|
|
14 |
# Model yükleme (burada dil modeli veya sohbet modeli olmalı)
|
15 |
model = load_model('text_classification_model.h5')
|
16 |
|
17 |
+
# Modelin beklediği giriş boyutunu öğrenme
|
18 |
+
model_input_shape = model.layers[0].input_shape[1]
|
19 |
+
|
20 |
# Tokenizer yükleme veya tanımlama
|
21 |
tokenizer = Tokenizer(num_words=10000) # num_words, kelime sayısı limitidir, modelinize göre ayarlayabilirsiniz
|
22 |
tokenizer.fit_on_texts(['örnek metin']) # Tokenizer'ı eğitmek için örnek bir metin kullanabilirsiniz
|
|
|
32 |
def generate_response(input_text):
|
33 |
# Metni tokenize et ve sekanslara dönüştür
|
34 |
sequences = tokenizer.texts_to_sequences([input_text])
|
35 |
+
padded_sequences = pad_sequences(sequences, maxlen=model_input_shape) # maxlen, modelin beklediği giriş boyutuna göre ayarlanmalıdır
|
36 |
prediction = model.predict(padded_sequences)
|
37 |
response = "Bu bir örnek yanıttır." # Modelden gelen yanıtı buraya yazın
|
38 |
return response
|