Delete 'plugins/maple.py'

deprecated
This commit is contained in:
.[d]. 2022-02-02 10:03:43 +00:00
parent 5006c75ab3
commit fb82d942ae

@ -1,96 +0,0 @@
import signal
import configparser
import argparse
import logging
import random
from model import download_model_folder, download_reverse_model_folder, load_model
from decoder import generate_response
###########################################################################################################
###########################################################################################################
terminate = False
files = [ "plugins/maple_i_process.txt", "plugins/maple_o_processed.txt" ]
logging.basicConfig(format='%(asctime)s - %(name)s - %(levelname)s - %(message)s', level=logging.INFO)
logger = logging.getLogger(__name__)
###########################################################################################################
###########################################################################################################
def signal_handling(signum,frame):
global terminate
terminate = True
###########################################################################################################
###########################################################################################################
def run_chat(model, tokenizer, config, mmi_model=None, mmi_tokenizer=None):
num_samples = config.getint('decoder', 'num_samples')
max_turns_history = config.getint('decoder', 'max_turns_history')
turns = []
signal.signal(signal.SIGINT,signal_handling)
print("*** RUNNING ***")
while True:
if terminate:
break
f = open(files[0],'r')
s = f.read()
f.close()
if len(s) > 1:
prompt = s.strip(); del(s); f = open(files[0],'w'); f.write(''); f.close()
print(f'human > {prompt}')
if max_turns_history == 0:
turns = []
turn = {
'human_messages': [],
'maple_messages': []
}
turns.append(turn)
turn['human_messages'].append(prompt)
history = ""
from_index = max(len(turns)-max_turns_history-1, 0) if max_turns_history >= 0 else 0
for turn in turns[from_index:]:
for message in turn['human_messages']:
history += message + tokenizer.eos_token
for message in turn['maple_messages']:
history += message + tokenizer.eos_token
maple_messages = generate_response(
model,
tokenizer,
history,
config,
mmi_model=mmi_model,
mmi_tokenizer=mmi_tokenizer
)
if num_samples == 1:
maple_message = maple_messages[0]
else:
maple_message = random.choice(maple_messages)
print(f'maple > {maple_message}')
f = open(files[1],'w'); f.write(maple_message); f.close()
turn['maple_messages'].append(maple_message)
print('cya')
###########################################################################################################
###########################################################################################################
def main():
arg_parser = argparse.ArgumentParser()
arg_parser.add_argument('--config', type=str, default="./plugins/personality.cfg")
args = arg_parser.parse_args()
config = configparser.ConfigParser(allow_no_value=True)
with open(args.config) as f:
config.read_file(f)
target_folder_name = download_model_folder(config)
model, tokenizer = load_model(target_folder_name, config)
use_mmi = config.getboolean('model', 'use_mmi')
if use_mmi:
mmi_target_folder_name = download_reverse_model_folder(config)
mmi_model, mmi_tokenizer = load_model(mmi_target_folder_name, config)
else:
mmi_model = None
mmi_tokenizer = None
run_chat(model, tokenizer, config, mmi_model=mmi_model, mmi_tokenizer=mmi_tokenizer)
###########################################################################################################
###########################################################################################################
if __name__ == '__main__':
print('*** INITIALZING ***')
for _ in files:
f = open(_,'w')
f.write('')
f.close()
main()
###########################################################################################################
###########################################################################################################