Есть проблема в ИИ-шке, пока что фундаментально не разрешимая и она сводится к проблеме остановки машины Тьюринга, чтобы ИИ можно было назвать в "сильном" смысле, он должен обладать саморефлексией - например анализировать свой код и изменять его структуру в связи с новой информацией, однако нельзя однозначно сказать закончится тогда этот процесс или он бесконечно зациклится, т.е. мы не можем такой код написать пока что фундаментально.