Новая виртуальная реальность

Форум проекта универсальной многопользовательской 3D-вселенной, основанной на движке OpenSpace3D

Цель - создание виртуальной среды с возможностью полного контролируемого погружения.
Проект открытый - можно смотреть исходный код, и предлагать свои дополнения и улучшения.
Основная идеологическая база - роман Сергея Глуцкого "Виртронация".

О проекте Что уже сделано Планы Контакты Дальше >>

    Планы реализации проекта

    Поделиться
    avatar
    Oleg75
    Admin

    Сообщения : 205
    Дата регистрации : 2015-06-30
    Возраст : 43

    Планы реализации проекта

    Сообщение автор Oleg75 в Ср 5 Авг 2015 - 17:49

    В этой теме отображаются тактические и стратегические планы по созданию виртуального мира. На основе большинства из них и будет развиваться проект.
    avatar
    Suemir
    Admin

    Сообщения : 110
    Дата регистрации : 2015-07-22

    Re: Планы реализации проекта

    Сообщение автор Suemir в Пт 14 Авг 2015 - 8:09

    Я так понял менять основные компоненты движка, те что на С++, не придётся. А скорее всего придётся дорабатывать надсистемы написанные на SCOL. Например переделать нейроинтерфейсный блок, чтобы там было не только концетрация и медитация ^_^ Хотя по идее там должно уже сейчас быть ещё одно состояние мозга.
    Я правильно понял, что нейроинтерфейсный блок написан на SCOL? Или всё-таки на С++?
    avatar
    Oleg75
    Admin

    Сообщения : 205
    Дата регистрации : 2015-06-30
    Возраст : 43

    Re: Планы реализации проекта

    Сообщение автор Oleg75 в Пт 14 Авг 2015 - 10:06

    Ну по крайней мере в ближайшей перспективе нет планов менять что-то в графическом движке Ogre3D, в физическом Newton, и т.д. Что касается блока с функцией, отвечающей за нейроинтерфейс, то возможно её нам и не придётся переделывать. Разработчики OpenSpace3D достаточно оперативно вносят в систему самые передовые технологии. Думаю, если появится какой-то более навороченный мозгоинтерфейс, сразу создадут соответствующий блок. И даже не знаю, как получится переделать нейроинтерфейсный блок для приёма других состояний мозга, если сам нейроинтерфейс этого не сможет позволить на аппаратном уровне.

    Могу только сказать, что сейчас этот блок может отправлять такие события (привожу код на языке XML, где в кавычках описаны эти события):

    Код:
      <EVENT name="connected" />
        <EVENT name="disconnected" />
        <EVENT name="attention" />
        <EVENT name="meditation" />
        <EVENT name="battery" />
        <EVENT name="raw_signal" />
        <EVENT name="poor_quality" />
        <EVENT name="eegDelta" />
        <EVENT name="eegTheta" />
        <EVENT name="eegLowAlpha" />
        <EVENT name="eegHighAlpha" />
        <EVENT name="eegLowBeta" />
        <EVENT name="eegHighBeta" />
        <EVENT name="eegLowGamma" />
        <EVENT name="eegHighGamma" />

    То есть кроме концентрации и медитации, там ещё есть разные виды ЭЭГ - альфа, бета, гамма, дельта, тета, плюс ещё разновидности - высокая или низкая частота. Что сие означает, для меня пока китайская грамота. Ещё можно заметить чисто технические события, которые может отправить нейроинтерфейс через этот блок - есть или нет подключения, уровень заряда батареи прибора, насколько хорошо шлем получает и передаёт сигнал и т.д.

    Насчёт языка, на котором написан блок нейроинтерфейса - это однозначно SCOL, но вот откуда он берёт встроенные функций, пока не понял - либо определение тех функции гдето записано тоже на SCOL, либо подключается какая-то Си-шная библиотека.

    Например, вот есть функция cbReadEEGData, которая судя по названию (и входным параметрам) читает такие события, как сигналы альфа, бета, и другие сигналы мозга, ну и что-то с этими событиями делает. А вот что такое _DMSevent и getPluginInstanceEvent, не могу пока понять. Судя по всему это тоже функции, но где, и на каком языке они определяются, загадка. Надеюсь после перевода документации по языку SCOL всё станет на свои места. Вот код, о котором я сейчас говорил:

    Код:
    fun cbReadEEGData(mNeurosky, inst, delta, theta, low_alpha, high_alpha, low_beta, high_beta, low_gamma, high_gamma)=
      _DMSevent this (getPluginInstanceEvent inst "eegDelta") itoa delta nil;
      _DMSevent this (getPluginInstanceEvent inst "eegTheta") itoa theta nil;
      _DMSevent this (getPluginInstanceEvent inst "eegLowAlpha") itoa low_alpha nil;
      _DMSevent this (getPluginInstanceEvent inst "eegHighAlpha") itoa high_alpha nil;
      _DMSevent this (getPluginInstanceEvent inst "eegLowBeta") itoa low_beta nil;
      _DMSevent this (getPluginInstanceEvent inst "eegHighBeta") itoa high_beta nil;
      _DMSevent this (getPluginInstanceEvent inst "eegLowGamma") itoa low_gamma nil;
      _DMSevent this (getPluginInstanceEvent inst "eegHighGamma") itoa high_gamma nil;
      0;;
    avatar
    Suemir
    Admin

    Сообщения : 110
    Дата регистрации : 2015-07-22

    Re: Планы реализации проекта

    Сообщение автор Suemir в Пт 14 Авг 2015 - 12:08

    Это хорошо, что оказывается столько вариаций сигналов принимает нейроинтерфейс. Если пользователь при колибровке под виртуальный мир будет в достаточной широте излучать свои сигналы, то сможет использовать все предоставленные нейроинтерфейсным блоком вариации. Надо будет лишь перед записью предлагать типа: Представьте, что идёте вперёд, или представьте что поворачиваете вправо итд все необходимые действия. И возможно, вариаций приёма этих сигналов в лице данного блока должно хватить для насущных действий в виртуальной реальности.
    avatar
    Oleg75
    Admin

    Сообщения : 205
    Дата регистрации : 2015-06-30
    Возраст : 43

    Re: Планы реализации проекта

    Сообщение автор Oleg75 в Пт 14 Авг 2015 - 19:52

    Где-то в описаниях к данному нейроинтерфейсу я читал, что можно натренироваться, и повысить, например, альфу, не трогая остальные ритмы. Но как это работает на самом деле, пока сложно понять. Почему-то в большинстве случаев наталкиваюсь на статьи, где в основном упоминается только концентрация и медитация.
    avatar
    Suemir
    Admin

    Сообщения : 110
    Дата регистрации : 2015-07-22

    Re: Планы реализации проекта

    Сообщение автор Suemir в Пт 21 Авг 2015 - 10:50

    Ага, возможно будут тренинги, чтобы научить свой мозг излучать более широкие сигналы, тогда нейроинтерфейс сможет более тонко реагировать, что даст возможность использовать все вариации сигналов. А возможно и нейроинтерфейс улучшат, что он сможет более тонко распознавать сигналы мозга. Сейчас уже хорошо, целых восемь различных сигналов принимает мозг. Но сдаётся мне, то что может принять нейроинтерфейс, и то что может излучить человек, не совсем будет совпадать. У пользователя мозговые сигналы могут различаться типа, идти в перёд, или повернуть вправо. Это будет основываться на его личных ассоциациях и ощущениях. Но нейроинтрефейс это всё может распознавать как "eegHighBeta". Надо мне как-то по-другому подойти к этой ситуации, чтобы применились уже имеющиеся возможности. ^_^

    Спонсируемый контент

    Re: Планы реализации проекта

    Сообщение автор Спонсируемый контент


      Текущее время Ср 19 Дек 2018 - 2:41