Мое понимание такое: ребята собрали какую-то там статистику, и построили график и начали визжать мол смотрите как у нас все экспоненциально растет, но ребята не учитывают что есть такая штука как человек и вот человек такое животное что впихнуть в отдельную тушку можно не очень много, поэтому теперь заместо одной тушки надо будет десять тушек, а потом 100 и дальше, со временем произойдет такая штука, что отдельные тушки просто не смогут друг с другом коммуницировать, потому что окажется что они общаются на разных языках.
Что до "обучаемых" систем, то системы эти примитивнее устроены чем нервная система моего покойного кота.
Под технологической сингулярностью (вроде речь про технологии и автоматизацию, поэтому берём технологическую) сейчас чаще всего подразумевают развитие ИИ до уровня, когда он окажется умнее нас, вследствие чего мы не сможем его контролировать
То есть, у нас как у биологических существ есть естественный тормоз — нам для развития нужна смена поколений. У машины же этого ограничения нет, поэтому достичь уровня человеческого интеллекта она может за 200 лет, а перепрыгнуть его за следующие 2 минуты
В общем то, это даже не про конец света. Это про «момент времени, после которого вообще непонятно что произойдёт»